【科學的溫度】聶再清:AI時代,把更多決策權還給個人數(shù)據(jù)主權方
中新網(wǎng)12月21日電 (記者 孟湘君)掃地機器人、升降桌攜帶攝像頭,家中被“偷拍”防不勝防?手機、電腦APP,日復一日“偷聽”你說話?動不動就收到房產(chǎn)中介、早教、健身機構的“騷擾信息”?個人就醫(yī)健康數(shù)據(jù)接入互聯(lián)網(wǎng),究竟誰有權查看?
Web3.0時代正在到來,人工智能應用越來越廣泛,個人隱私數(shù)據(jù)和信息泄漏問題隨之而來。隱私被泄漏,該找誰?如何做好數(shù)據(jù)保護和管理?人工智能被惡意使用,責任歸屬如何劃定?
就這些問題,中新網(wǎng)記者邀請清華大學國強教授、智能產(chǎn)業(yè)研究院(AIR)首席研究員聶再清,展開深入解讀。
“個人隱私信息,遵循最小范圍收集原則”
網(wǎng)上流傳著一種說法,即手機、電腦里一些APP可能在“偷聽、偷看”持有者說話,通過用戶搜索的常用關鍵詞及通話錄音高頻詞,來分析用戶喜好并進行商品和服務推薦,聶再清表示,有這種說法,但要具體情況具體分析。
他指出,其實從數(shù)據(jù)輸入開始,到瀏覽器或其他軟件,再到真正的系統(tǒng)里,要經(jīng)過各種程序。正規(guī)來講,所有軟件都應遵守用戶隱私協(xié)議和國家相關法律法規(guī),都要與用戶簽隱私協(xié)議。傳輸過程中軟件是不是在“偷聽”,到底哪個軟件在“偷聽”,要具體分析。在一個軟件當中,利用好用戶的某些個人信息,也可能能為用戶帶來價值。
聶再清舉例稱,比如音樂軟件記住用戶所聽歌曲,通過數(shù)據(jù)收集知曉用戶是誰的粉絲,就能按喜好薦歌。前提是,軟件應與用戶簽好隱私協(xié)議,告訴用戶在使用過程中會收集其所聽歌曲的名字、聽歌時長等,這類功能需要用戶授權,獲得用戶同意才能使用。用戶應該也有權不允許啟用這類個性化推薦功能。
最近,市場上流行的一些智能家具、家電,比如掃地機器人、升降桌等攜帶攝像頭、麥克風等,也引發(fā)“偷取”個人隱私的質疑。一些消費者認為商家未充分明示,導致自己在家中被拍攝和錄音,從“不設防”變成了“防不勝防”。
對此,聶再清表示對消費者的理解。他同時指出,對一些智能家電來說,沒有攝像頭、麥克風就無法收集用戶語音指令和現(xiàn)場狀況,但同時,應當對市場上的商品進行更好地監(jiān)管,他指出幾個判斷標準:
首先,商家是否明確告知用戶,何時收集數(shù)據(jù)、如何使用數(shù)據(jù),是不是超出了實際使用和收集范圍?
第二,數(shù)據(jù)收集完后,商家會否拿來做別的用途?商家在整個過程中,一定要遵循國家法律法規(guī)和用戶隱私協(xié)議。
第三,軟件運營人員、機構負責人,應當是第一把關人,要保證軟件不做多余動作,否則就等于是違反協(xié)議甚至違法,一定有相關法律法規(guī)來監(jiān)管。
聶再清同時指出,商品、軟件設計者還應遵循最小范圍收集個人隱私信息的原則,絕不要收集和產(chǎn)品用戶價值無關的信息。
“將更多決策權還給個人數(shù)據(jù)主權方”
聶再清表示,隨著全球逐步邁入Web3.0時代,數(shù)據(jù)已成為機構或個人的核心私有資產(chǎn)。這就需要數(shù)據(jù)擁有方在政府允許范圍內管理和利用好數(shù)據(jù)資產(chǎn),從而在日常生活中,讓數(shù)據(jù)資產(chǎn)發(fā)揮應有價值。
他指出,Web3.0時代和Web2.0時代的最大區(qū)別,就是Web2.0時代,更多地還是把數(shù)據(jù)擁有權以及其他權利交給平臺,但在Web3.0時代,希望能把決策權等很多權利還給數(shù)據(jù)主權方。這個數(shù)據(jù)主權方,可以指個人、機構,也可以指政府部門。對于個人而言數(shù)據(jù)主權是指人們對自身行為產(chǎn)生的數(shù)據(jù)擁有使用權和所有權,對于國家而言呢,數(shù)據(jù)主權是指存在于本國的數(shù)據(jù)要受到本國法律的約束。
“我認為這個方向特別好”,聶再清希望,未來在政府指定范圍內,個人數(shù)據(jù)主權方能逐漸擁有越來越多的決策權。
他以個人的就醫(yī)、健康數(shù)據(jù)舉例稱,可以嘗試在政府引導下,由相關機構和有參與意愿的個人,嘗試共同建設健康數(shù)據(jù)聯(lián)盟鏈示范區(qū)。檢查、診斷、病史、鍛煉康復、體檢等各種個人健康數(shù)據(jù),都放在數(shù)據(jù)聯(lián)盟鏈上,個人持有密鑰。如想讓他人查看自己的健康數(shù)據(jù),就用密鑰授權。
聶再清進一步指出,是否允許他人查看個人健康數(shù)據(jù)、是否可有償或無償將自己的數(shù)據(jù)提供給藥廠以做制藥研究等,都基于個人決策。機構也是一樣,某個機構如有需要,可在數(shù)據(jù)聯(lián)盟鏈上進行交易,所有數(shù)據(jù)交易都應可見且不可篡改,符合法律法規(guī)。
“將責任壓實到技術產(chǎn)品研發(fā)人身上”
圍繞人工智能在應用中的風險管控問題,近日,在2022人工智能合作與治理國際論壇上,中國工程院院士高文提出一個值得探討的觀點。他認為,如果沒有辦法阻止人工智能的惡意使用,用人工智能犯罪,只是時間早晚問題。
對于這一觀點,聶再清表示“完全同意”。他指出,工具本身沒有好壞,人工智能跟別的工具沒有太大不同。只要是工具性質的發(fā)明創(chuàng)新,都會有被惡用問題,跟背后的人如何應用工具有關。
因此,他強調,為避免人工智能被惡用,應該將責任壓實到技術、產(chǎn)品研發(fā)背后的人身上,讓他們對后果負責。對于技術創(chuàng)新和產(chǎn)品研發(fā)人員,要有一套越來越完善的管理制度,讓他們失去犯罪的可能性。
同時,聶再清指出,我們要鼓勵有可能帶來重大生活方式改變的顛覆式AI技術(或產(chǎn)品)創(chuàng)新,但同時需要一套完善的AI技術、產(chǎn)品的管理制度。對于可能有安全隱患的人工智能技術創(chuàng)新和新產(chǎn)品,從原型研發(fā)到灰度內測,再到大規(guī)模使用,“就像新藥上市前要做臨床實驗一樣”,要證明AI創(chuàng)新產(chǎn)品和技術的安全性,然后才能大規(guī)模使用它。
使用過程中,也要不斷對效果和影響進行數(shù)字化監(jiān)測,他進一步指出,比如現(xiàn)在互聯(lián)網(wǎng)公司做產(chǎn)品,都有大量數(shù)字化監(jiān)測,每時每刻都有反饋。一旦發(fā)現(xiàn)某一功能對人產(chǎn)生了安全隱患,需要能及時讓人參與控制,讓系統(tǒng)回滾。
“總體上,我對人工智能的發(fā)展前景及應用表示樂觀”,聶再清說。他認為,作為人類的助手和工具,人工智能的應用總體上要符合人類科技向善的主流價值觀??萍荚诎l(fā)展過程中不斷突破瓶頸,最終都是為了提升人們的生活質量。(完)
相關新聞
經(jīng)濟新聞精選:
- 2024年12月27日 12:56:52
- 2024年12月27日 11:51:32
- 2024年12月27日 11:26:45
- 2024年12月27日 10:50:36
- 2024年12月27日 10:48:50
- 2024年12月27日 10:48:18
- 2024年12月27日 10:44:28
- 2024年12月27日 10:22:05
- 2024年12月27日 08:19:35
- 2024年12月27日 07:51:41