在生成式AI技術快速發展之際,各國政府在促進創新的同時,也逐步建立相關治理機制。隨著台灣《人工智慧基本法》通過,各部會也開始積極討論後續推動方向。(法新社)
〔記者邱巧貞/台北報導〕在生成式AI技術快速發展下,政府如何在促進創新的同時建立治理機制,成為各國政策的重要課題。關於台灣《人工智慧(AI)基本法》的推進速度,數位發展部(數發部)表示,去年除了成立AI公務人才辦公室之外,後續重點工作也將聚焦在AI治理制度與模型評測機制的建立。
數發部說明,《AI基本法》通過後,已與行政院及國科會討論後續推動方向,並在近期召開會議確認相關工作分工。未來數發部最優先推動的兩項任務,分別是建立AI風險分類框架與指引,以及推動AI模型評測機制。
在AI風險治理方面,數位發展部必須制定「AI風險分類框架指引」,作為各部會管理AI應用的重要依據,並協助開發AI系統時辨識與管理可能涉及的風險。
數發部長林宜敬指出,目前全球AI立法大致存在兩種不同路線。一種是以歐盟為代表的強監管模式,像是《EU AI Act》即認為AI可能帶來高風險,因此對部分技術設定明確限制或禁止,例如潛意識操弄、或透過臉部影像辨識推斷種族等。
另一種則是以美國為代表的「鼓勵創新模式」,美方普遍認為過度監管可能阻礙AI技術發展,因此不希望建立過於嚴格的法律限制。美國政府與產業界也積極向包括台灣、日本、韓國與新加坡等國家遊說,過於嚴格的監管可能對AI產業發展造成不利影響。
在此背景下,台灣應會採取「台灣模式」的治理架構,將AI管理分為三層。首先,是《人工智慧(AI)基本法》作為整體原則性,數發部在當中擔任的角色則是制定AI風險分類框架與指引,最後則由各主管機關依照不同產業領域制定具體規範。
林宜敬舉例,若AI技術應用於醫療輔助診斷,是否能在醫院使用、上市前需要哪些檢驗,以及若發生醫療糾紛責任歸屬等問題,應由衛生福利部依醫療領域立法規範。同樣地,若AI應用涉及金融領域,也會由金管會依產業特性制定相關法規。目前數發部已與衛福部、金管會等部會進行討論,待AI風險分類指引確立後,各部會將據此推動後續立法。
一手掌握經濟脈動 點我訂閱自由財經Youtube頻道
不用抽 不用搶 現在用APP看新聞 保證天天中獎 點我下載APP 按我看活動辦法
