研究案摘要
隨著生成式人工智慧(Generative AI, 以下簡稱生成式AI) 快速發展,其在文字生成、資訊摘要與互動式對話等面向展現高度潛力,為公共服務創新提供新契機。然而,資訊正確性、隱私安全、責任歸屬與信任建構等議題,對數位治理模式提出嚴峻挑戰。依循數位發展部《公部門人工智慧應用參考手冊(113年)》所提出的治理原則與風險控管架構,本研究主張公共服務的AI應用應以「責任、透明、公平、可控、安全與問責」為核心,並透過價值共創與參與式方法,協助政府在創新推動與風險治理之間取得平衡。
本研究聚焦於生成式AI導入公共服務後的使用者行為變化、互動信任機制與政策溝通挑戰,探討其如何影響政府資訊傳遞、數位互動介面與決策輔助等面向。研究方法結合文獻分析、探索與驗證式設計工作坊三階段進行:首先,參酌國內外政策文件與案例,盤點生成式AI在公共服務流程中的典型情境與角色樣態,並篩選具代表性的議題作為研究焦點;其次,透過探索式工作坊分析民眾對 AI 介入政府服務的價值感知、風險認知與信任標準,檢視使用者端的情境、AI接受度與落實情形;最後,舉辦驗證工作坊,運用「生成式AI公共應用設計評估牌卡工具」檢視公共服務導入原則與決策準則,並據以優化工具與提出政策建議。
研究預期成果包括:生成式AI於公共服務應用情境分析、民眾信任建構調查分析、具引導功能的設計評估工具,以及跨部門共創工作坊成果與政策建議。透過回應數位發展部手冊所揭示的治理框架,本研究期能提出兼具前瞻性與可操作性的設計準則與政策建議,以強化公共服務創新效能,並鞏固政府在生成式AI時代的社會信任基礎。