從歐盟《人工智慧法》談新興科技治理的制度設計難題(二)林勤富教授

130
2026-02-12
3
理律文教基金會
從歐盟《人工智慧法》談新興科技治理的制度設計難題(二)林勤富教授 人工智慧自1950年代達特茅斯會議提出概念以來,歷經數次發展與寒冬,直到2000年後因網際網路普及、大量數位資料累積、演算法突破與GPU等硬體運算能力提升,迎來第三波以機器學習與深度學習為核心的AI浪潮。2016年AlphaGo擊敗南韓天才棋手李世石象徵重大轉折,近年生成式AI(如ChatGPT)的興起,更加速AI滲透至各專業領域,被視為未來人機互動的重要介面。 然而,人工智慧發展伴隨治理難題。首先是資料代表性與標註過程可能反映既存社會偏見,導致演算法歧視與不公平,例如:司法風險評估、求職履歷篩選或圖像生成的性別與種族刻板印象等;其次是黑盒子問題,包括營業秘密造成的法律不透明、深度學習本質上的不可解釋性,以及決策者對AI運作機制理解不足的知識落差,均挑戰正當法律程序與責任歸屬。在治理...
從歐盟《人工智慧法》談新興科技治理的制度設計難題(二)林勤富教授 人工智慧自1950年代達特茅斯會議提出概念以來,歷經數次發展與寒冬,直到2000年後因網際網路普及、大量數位資料累積、演算法突破與GPU等硬體運算能力提升,迎來第三波以機器學習與深度學習為核心的AI浪潮。2016年AlphaGo擊敗南韓天才棋手李世石象徵重大轉折,近年生成式AI(如ChatGPT)的興起,更加速AI滲透至各專業領域,被視為未來人機互動的重要介面。 然而,人工智慧發展伴隨治理難題。首先是資料代表性與標註過程可能反映既存社會偏見,導致演算法歧視與不公平,例如:司法風險評估、求職履歷篩選或圖像生成的性別與種族刻板印象等;其次是黑盒子問題,包括營業秘密造成的法律不透明、深度學習本質上的不可解釋性,以及決策者對AI運作機制理解不足的知識落差,均挑戰正當法律程序與責任歸屬。在治理的制度設計上,各國面臨軟法引導、硬法規範或司法事後審查等不同選擇,歐盟《人工智慧法》採風險分級模式,依應用風險高低設計義務強度,嘗試在創新與權利保障間取得平衡。本課程從人工智慧的技術發展歷程出發,闡釋其對法律、社會倫理與治理架構所帶來的衝擊,並聚焦於歐盟《人工智慧法》的制度設計,進一步與其他國家法制進行比較。
09:48
仲介糾紛多❗仲介也會被耍拿不到仲介費⁉️交易秩序應重新整理‼️【演講精選ep 19】
20:04
南韓檢方對尹錫悅求處死刑:「防禦性民主」之抗辯!總統會犯「預備內亂罪」嗎?!|#廖震談時事 EP121
24:55
騙搜索票!?「大床誰睡?」檢察官為何要問陳珮琪這個?檢察官搜索前應該確認這些!|#廖震談時事 EP133
23:03
林俊言威逼沈慶京?京華城案偵辦檢察官有違倫理規範?檢評會的調查結果怎麼說!|#廖震談時事 EP127
01:13
被告才需要出庭?總統的刑事豁免權?

༺ 資料蒐集來源: YouTube
本站不需註冊加入會員,保障個人隱私,完全不用Cookei