人工智慧與個人資料保護(上)劉定基教授

77
2026-02-24
7
理律文教基金會
人工智慧與個人資料保護(上)劉定基教授 多數類型的人工智慧技術依靠資料的蒐集;資料來源各異,資料的流動引發個人資料保護的挑戰。個人資料保護法強調目的特定與使用限制的原則,並十分重視安全的維護,保有個人資料者須善盡責任保護資料不被非法存取或外洩。如何合法取得AI訓練驗證所需的大量資料並予以維護,一方面要在法律面妥為規劃,另一方面也藉助科技方法,例如讓演算法就近到資料所在地進行訓練,只將訓練結果回傳到中央資料庫進行演算法的優化,從而降低部分風險。然而這些處理仍然可能隱含其他法律的問題,例如智慧財產權、尤其是著作權相關的問題,或因觸及氣候、水文、地理的資料,而涉及國安的問題。此外,AI資料正確性潛藏複雜的問題,例如資料正確而產出的結果未必正確,其中可能涉及隱藏性的偏見或歧視,和資料或演算法污染的問題。 各國AI相關立法力求兼顧個人資料保護、資訊隱私保護,...
人工智慧與個人資料保護(上)劉定基教授 多數類型的人工智慧技術依靠資料的蒐集;資料來源各異,資料的流動引發個人資料保護的挑戰。個人資料保護法強調目的特定與使用限制的原則,並十分重視安全的維護,保有個人資料者須善盡責任保護資料不被非法存取或外洩。如何合法取得AI訓練驗證所需的大量資料並予以維護,一方面要在法律面妥為規劃,另一方面也藉助科技方法,例如讓演算法就近到資料所在地進行訓練,只將訓練結果回傳到中央資料庫進行演算法的優化,從而降低部分風險。然而這些處理仍然可能隱含其他法律的問題,例如智慧財產權、尤其是著作權相關的問題,或因觸及氣候、水文、地理的資料,而涉及國安的問題。此外,AI資料正確性潛藏複雜的問題,例如資料正確而產出的結果未必正確,其中可能涉及隱藏性的偏見或歧視,和資料或演算法污染的問題。 各國AI相關立法力求兼顧個人資料保護、資訊隱私保護,同時讓AI產業能取得發展所需的資料,個人資料自主控制的概念隨著逐漸改變。傳統個人資料保護原則以事前同意為核心的自主控制模式面臨高成本與告知困難,國外立法趨向視AI發展為合法的利益,在訓練AI的利益和個人隱私利益間權衡,倘訓練AI演算的利益高,個人隱私利益低,就讓AI先行,個資保護則採事後退出的機制。我國自111年憲判字第13號對健保資料採行「選擇退出」機制後,個人資料自主控制權轉向事後控制。本課程深度探究人工智慧所面臨的法律挑戰,並鋪陳在法制上承認新興權利的必要性和這些新興權利的內涵。
00:17
餵牠一餐很簡單守護牠一輩子才是愛!
51:13
136|威權時代的司法控制
00:50
不滿檢察官,可以告他嗎?| 喵星律師 施宇宸
14:26
醫療藥事領域之廣告概述 莊郁沁律師
2:17:41
2025 司法人文沙龍系列講座【場次一】言論自由與共融

༺ 資料蒐集來源: YouTube
本站不需註冊加入會員,保障個人隱私,完全不用Cookei