在人工智慧(AI)無所不在的時代,您是否曾懷疑過演算法的判斷是否真的公正?本課程邀請到在數位治理與資訊管理領域深耕多年的蕭乃沂副教授,帶領觀眾深入剖析 AI 背後的權力結構與倫理困境。
蕭副教授指出,政府在 AI 發展中扮演著「購買者、管制者與使用者」的詭異角色,甚至有時是「麻煩製造者」。他強調,AI 的問題根源往往在於社會科學的方法論。由於 AI 是人類智慧設計出的產物,其核心邏輯與數據採樣難免鑲嵌了人類的偏見與不完美,導致 AI 可能在領域知識、基礎辨識或底層演算法上出錯。
本講座將探討以下核心議題:
- 演算法透明義務與營業秘密的調和: 公開演算法並不必然損害企業利益,關鍵在於「如何公開」而非「要不要公開」。
- 自然語言處理(NLP)的限制: 以公共政策分析為例,揭示 AI 往往只能辨識「情緒」卻難以精準判斷「立場」的科技侷限。
- 人機協作的治理框架: 從告知義務、徵詢意見到人機協作(Coaching),探討 AI 自主性的層級與問責機制。
- 監理沙盒(Sandbox)的倡議: 呼籲建立跨領域的實驗機制,平衡 AI 應用的效益、成本與風險。
這不只是一場科技講座,更是一場關於權力、倫理與公共利益的深度對話。無論您是政策制定者、科技研發人員,或對數位公民權感興趣的讀者,都能從中獲得啟發,共同思考如何建立一個更透明、公平的 AI 治理環境。