人工智慧與個人資料保護(上)劉定基教授

339
2026-02-24
13
理律文教基金會
人工智慧與個人資料保護(上)劉定基教授 多數類型的人工智慧技術依靠資料的蒐集;資料來源各異,資料的流動引發個人資料保護的挑戰。個人資料保護法強調目的特定與使用限制的原則,並十分重視安全的維護,保有個人資料者須善盡責任保護資料不被非法存取或外洩。如何合法取得AI訓練驗證所需的大量資料並予以維護,一方面要在法律面妥為規劃,另一方面也藉助科技方法,例如讓演算法就近到資料所在地進行訓練,只將訓練結果回傳到中央資料庫進行演算法的優化,從而降低部分風險。然而這些處理仍然可能隱含其他法律的問題,例如智慧財產權、尤其是著作權相關的問題,或因觸及氣候、水文、地理的資料,而涉及國安的問題。此外,AI資料正確性潛藏複雜的問題,例如資料正確而產出的結果未必正確,其中可能涉及隱藏性的偏見或歧視,和資料或演算法污染的問題。 各國AI相關立法力求兼顧個人資料保護、資訊隱私保護,...
人工智慧與個人資料保護(上)劉定基教授 多數類型的人工智慧技術依靠資料的蒐集;資料來源各異,資料的流動引發個人資料保護的挑戰。個人資料保護法強調目的特定與使用限制的原則,並十分重視安全的維護,保有個人資料者須善盡責任保護資料不被非法存取或外洩。如何合法取得AI訓練驗證所需的大量資料並予以維護,一方面要在法律面妥為規劃,另一方面也藉助科技方法,例如讓演算法就近到資料所在地進行訓練,只將訓練結果回傳到中央資料庫進行演算法的優化,從而降低部分風險。然而這些處理仍然可能隱含其他法律的問題,例如智慧財產權、尤其是著作權相關的問題,或因觸及氣候、水文、地理的資料,而涉及國安的問題。此外,AI資料正確性潛藏複雜的問題,例如資料正確而產出的結果未必正確,其中可能涉及隱藏性的偏見或歧視,和資料或演算法污染的問題。 各國AI相關立法力求兼顧個人資料保護、資訊隱私保護,同時讓AI產業能取得發展所需的資料,個人資料自主控制的概念隨著逐漸改變。傳統個人資料保護原則以事前同意為核心的自主控制模式面臨高成本與告知困難,國外立法趨向視AI發展為合法的利益,在訓練AI的利益和個人隱私利益間權衡,倘訓練AI演算的利益高,個人隱私利益低,就讓AI先行,個資保護則採事後退出的機制。我國自111年憲判字第13號對健保資料採行「選擇退出」機制後,個人資料自主控制權轉向事後控制。本課程深度探究人工智慧所面臨的法律挑戰,並鋪陳在法制上承認新興權利的必要性和這些新興權利的內涵。
19:05
又...又...又有公投!廢止憲訴法修法的公投在講什麼?連署有機會過關嗎?|法客電台 Video Podcast EP50
36:47
憲法法庭113年憲判字第10號判決【醫療費用收取標準案】及第11號判決【擬制遺產課稅案】記者會(1131028)
19:50
高市早苗在眾議院選舉會贏嗎?日本選舉的政見都寫什麼?君主制的國家在現代社會可行嗎?|法客電台 Video Podcast EP71
09:35
Makiyo欠租,房東不能趕人?
01:22
吃掉外送送錯的餐點會被告嗎?

༺ 資料蒐集來源: YouTube
本站不需註冊加入會員,保障個人隱私,完全不用Cookei