來源:央廣網(wǎng) 發(fā)布時間:2021-12-13 9:43
央廣網(wǎng)北京12月5日消息(記者馮爍)據(jù)中央廣播電視總臺中國之聲《新聞縱橫》報道,隨著智慧城市、智能設(shè)備越來越多地進入到人們的生活中,人工智能在賦能千行百業(yè)的同時,也帶來了安全、隱私、公平等問題和挑戰(zhàn)。諸如個人信息泄露問題,低俗劣質(zhì)信息精準推送、“大數(shù)據(jù)殺熟”等算法歧視亂象凸顯出來。
近期,各國監(jiān)管機構(gòu)也加大了對算法不公平的打擊力度。人工智能帶來了哪些新煩惱?面對這些煩惱人們真的束手無策嗎?
現(xiàn)如今人工智能已經(jīng)成為一股無可抵擋的潮流,甚至遍布于各個行業(yè)之中。然而當人工智能越來越懂人類時,我們不禁要擔心:這些人工智能會不會哪一天就把我們給“賣了”?
以近些年很多小區(qū)安裝的人臉識別門禁為例,不少業(yè)主都表示擔心被采集的人臉信息泄露。
各類人臉識別系統(tǒng)、手機App等都在廣泛采集用戶人臉、聲紋等具有強個人屬性的生物特征信息及行為軌跡等數(shù)據(jù),一旦泄露將威脅個人隱私。
數(shù)據(jù)安全是數(shù)字經(jīng)濟發(fā)展中最關(guān)鍵的安全挑戰(zhàn)之一,近些年國際社會上發(fā)生的數(shù)據(jù)泄露事件也并不少。今年8月,微軟服務(wù)器上約3800萬條記錄(包括私人信息)被暴露。此次的數(shù)據(jù)泄露包括用戶的姓名、地址、財務(wù)信息和新冠肺炎疫苗接種狀態(tài)等,人員涉及美國航空公司、福特公司以及馬里蘭州衛(wèi)生部和紐約市公共交通系統(tǒng)等公共機構(gòu)。
從我國法律層面上看,今年11月,個人信息保護法正式實施,針對人臉識別等行為作出了明確規(guī)定。至此,連同已經(jīng)實施的數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法,三者共同構(gòu)成了我國在網(wǎng)絡(luò)安全和數(shù)據(jù)保護方面的法律“三駕馬車”。
國家新一代人工智能治理專業(yè)委員會主任薛瀾表示,新一代人工智能以數(shù)據(jù)為基礎(chǔ),所以首要挑戰(zhàn)就是怎么樣能夠有高質(zhì)量的數(shù)據(jù)集建設(shè)并對數(shù)據(jù)進行有效管理。
在購物網(wǎng)站上填個調(diào)查問卷,甚至連問卷都沒填,僅是瀏覽信息,就幾乎看不到一些選項范圍之外的商品廣告信息了;通過應(yīng)用程序(App)閱讀了一條養(yǎng)生信息,隨后便會經(jīng)常收到養(yǎng)生知識、養(yǎng)生產(chǎn)品的廣告推送……這都是“算法歧視”,很多人有切身感受。
當前,人工智能技術(shù)的發(fā)展正處在關(guān)鍵十字路口。12月4日,2021人工智能合作與治理國際論壇在京開幕,大咖云集。他們?nèi)绾慰创@個問題?人工智能又應(yīng)該怎樣去踐行“科技向善”呢?
今年年初,中國消費者協(xié)會就消費領(lǐng)域不合理的算法現(xiàn)象發(fā)聲,揭露出“大數(shù)據(jù)殺熟”的六種現(xiàn)象,其中就包括大家非常熟悉的“精準推送”——這是指互聯(lián)網(wǎng)平臺通過監(jiān)測分析消費者的消費行蹤軌跡,如瀏覽過的頁面、廣告、商品服務(wù)、話題等,有針對性地對消費者進行商業(yè)營銷。
一位來自南京的消費者告訴記者:“比如,我5分鐘之前跟朋友聊到電動牙刷,5分鐘后我打開某些電商平臺,它就會給我推送這種商品,而這種商品是我之前沒有搜索過的。”
的確,隨著人工智能技術(shù)的發(fā)展,更精準地讀懂大家想要什么在一些場合下變得非常方便,但是一旦這種對信息的收集越了界,將給大家?guī)頍o盡的困擾。
目前我國已經(jīng)陸續(xù)出臺了一系列政策,為“大數(shù)據(jù)殺熟”戴上緊箍咒。11月18日,上海率先在電子商務(wù)領(lǐng)域出臺地方性指引,制定發(fā)布《上海市網(wǎng)絡(luò)交易平臺網(wǎng)絡(luò)營銷活動算法應(yīng)用指引(試行)》,明確平臺經(jīng)營者不得利用算法實施不正當價格行為,不得利用算法對消費者實施不合理的差別待遇。
今年8月,國家網(wǎng)信辦已經(jīng)出臺了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定(征求意見稿)》,要求算法推薦服務(wù)提供者應(yīng)當定期審核、評估、驗證算法機制機理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷或者高額消費等違背公序良俗的算法模型。
不少專家都表示,發(fā)展人工智能,必須堅持技術(shù)永遠服務(wù)人的原則,而不是利用技術(shù)來窺探人、傷害人。
對此,清華大學(xué)智能社會治理研究院院長蘇竣指出:“算法以前所未有的速度和無與倫比的精度處理數(shù)據(jù),讓占據(jù)了用戶數(shù)據(jù)和高級算法優(yōu)勢的個體或組織,因此獲取了極大的權(quán)力,形成壟斷性的超級平臺,對市場活動中的勞動者權(quán)益和消費者的福利造成了無邊界的蠶食。當今社會,每個人其實都被困在各式各樣的算法里。”
眾所周知,人工智能是在特定模型下自我學(xué)習(xí)形成算法的,訓(xùn)練模型所依據(jù)的數(shù)據(jù)集和模型本身的設(shè)計都有可能帶來偏差。而這就會帶來歧視問題。
美國卡內(nèi)基梅隆大學(xué)學(xué)者就曾經(jīng)用釣魚軟件模擬普通用戶瀏覽求職網(wǎng)站的實驗,然后統(tǒng)計谷歌推送“年薪20萬美元以上的職位”的廣告數(shù)據(jù),結(jié)果男性收到1852次推送,女性收到318次。結(jié)果很明顯,平臺可以通過后臺進行關(guān)鍵詞設(shè)置,可以“操作”每類人群收到的信息頻率。
一位來自美國的黑人女士喬伊也曾公開表示,在實習(xí)中她遭遇了這樣一種情況——由于自己是黑人臉龐,所以人臉識別攝像頭無法識別她的面容。
對此,清華大學(xué)人工智能國際治理研究院學(xué)術(shù)委員龔克表示,人工智能很可能會導(dǎo)致廣泛的歧視和不公問題,這種算法偏見亟待糾偏。
“我們現(xiàn)在使用人工智能的時候,是靠數(shù)據(jù)來訓(xùn)練模型,而我們從社會中采集的數(shù)據(jù)帶有了現(xiàn)實社會的很多偏見。如果我們沒有適當?shù)募夹g(shù)對我們的算法進行偏見的檢測、去除,公平無歧視的原則就會變得沒有辦法落地。”龔克說。