跳到主要內容區塊

研究案摘要

隨著生成式人工智慧(Generative AI, 以下簡稱生成式AI) 快速發展,其在文字生成、資訊摘要與互動式對話等面向展現高度潛力,為公共服務創新提供新契機。然而,資訊正確性、隱私安全、責任歸屬與信任建構等議題,對數位治理模式提出嚴峻挑戰。依循數位發展部《公部門人工智慧應用參考手冊(113年)》所提出的治理原則與風險控管架構,本研究主張公共服務的AI應用應以「責任、透明、公平、可控、安全與問責」為核心,並透過價值共創與參與式方法,協助政府在創新推動與風險治理之間取得平衡。

本研究聚焦於生成式AI導入公共服務後的使用者行為變化、互動信任機制與政策溝通挑戰,探討其如何影響政府資訊傳遞、數位互動介面與決策輔助等面向。研究方法結合文獻分析、探索與驗證式設計工作坊三階段進行:首先,參酌國內外政策文件與案例,盤點生成式AI在公共服務流程中的典型情境與角色樣態,並篩選具代表性的議題作為研究焦點;其次,透過探索式工作坊分析民眾對 AI 介入政府服務的價值感知、風險認知與信任標準,檢視使用者端的情境、AI接受度與落實情形;最後,舉辦驗證工作坊,運用「生成式AI公共應用設計評估牌卡工具」檢視公共服務導入原則與決策準則,並據以優化工具與提出政策建議。

研究預期成果包括:生成式AI於公共服務應用情境分析、民眾信任建構調查分析、具引導功能的設計評估工具,以及跨部門共創工作坊成果與政策建議。透過回應數位發展部手冊所揭示的治理框架,本研究期能提出兼具前瞻性與可操作性的設計準則與政策建議,以強化公共服務創新效能,並鞏固政府在生成式AI時代的社會信任基礎。

研究方法

本研究聚焦於生成式AI導入公共服務後所帶來之使用者行為變化、互動信任機制與政策溝通挑戰。為掌握此一轉變過程中潛藏之問題與機會,整合質性研究、探索性量化調查與協作式設計等方法,規劃兼具參與性與實作性的四階段執行架構流程:

一、第一階段

參考國際(如 OECD、UNDP、歐盟AI法規白皮書、加拿大、英國、美國等政策創新實驗室)相關策略指引與文獻,並結合國內案例,歸納生成式AI於公共服務導入的典型情境(如民政、社會福利、醫療與公共衛生、就業勞動等),分析其功能角色、應用潛力與潛在風險。最終收斂具代表性的研究議題,建構初步之應用策略框架,作為後續信任模式與設計工具開發之理論基礎。

二、第二階段

根據前階段盤點結果,辦理第一場探索性工作坊,針對民眾與專家對生成式AI介入政府資訊傳遞、數位互動介面及決策輔助等場景的價值感知、風險認知與信任判準進行討論。並搭配情境模擬畫面,以辨識使用者痛點與信任斷裂來源,並以量化結果支撐後續設計工具的需求定義與設計方向。

三、第三階段

綜整前兩階段成果,開發「生成式AI公共應用設計評估牌卡工具」,內容包括情境示意圖、介入點討論與風險辨識模組。隨後邀請約20位跨領域專家進行可用性與操作性驗證,評估工具在設計判斷、跨部門溝通與決策透明化之支持效能,並據此優化工具內容與操作流程。

四、第四階段

舉辦驗證工作坊,邀集公務人員、專家與技術開發人員20位,共同使用評估牌卡工具,模擬生成式AI在公共服務推動中的決策與審議過程,並記錄實際回饋。依據工作坊結果優化牌卡工具,提出具制度移轉可能性的政策建議,並將工具轉化為可持續應用的規劃與檢核工具,以利未來公務機關人員在相關市政服務中規劃應用。