探路人工智能道德邊界護(hù)航科技向善 曠視科技成立人工智能治理研究院
來源:證券日報(bào) 記者李喬宇
“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會(huì)過剩的,這對(duì)地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟?!?019年的一天,當(dāng)一位年輕的護(hù)理人員試圖借助家中某智能音箱查詢一些關(guān)于心臟的問題時(shí),她得到了這樣的答案。
上述事件發(fā)生后,相關(guān)智能音箱開發(fā)者做出回應(yīng):“設(shè)備可能從任何人都可以自由編輯的維基百科上下載與心臟相關(guān)的惡性文章,并導(dǎo)致了此結(jié)果”。上述護(hù)理人員則表示,經(jīng)過搜索,并沒有發(fā)現(xiàn)此類文章。
這并非該品牌人工智能產(chǎn)品首次出現(xiàn)“事故”。此前亦有報(bào)道稱,該品牌智能語音助手曾發(fā)出過瘆人的笑聲,并拒聽用戶指令。
上述智能音箱的故事亦并非孤例,科幻電影中人工智能反制于人的場景似乎正在一步一步走進(jìn)現(xiàn)實(shí)。人工智能時(shí)代下,當(dāng)技術(shù)革命正在沖擊社會(huì)道德,人工智能的道德邊界在哪里,誰該為人工智能負(fù)責(zé)?
為了解決這些問題,曠視科技正式成立了人工智能治理研究院,旨在就全球人工智能治理的共性問題與社會(huì)各界廣泛溝通、與專家學(xué)者們展開研究,共同推動(dòng)人工智能的健康發(fā)展。曠視科技聯(lián)合創(chuàng)始人、CEO印奇用“理性的關(guān)注,深度的研究,建設(shè)性的討論,堅(jiān)持不懈的行動(dòng)”四句話,表達(dá)了曠視科技倡導(dǎo)AI治理的決心。
十大人工智能治理事件
揭秘三類挑戰(zhàn)
在人工智能治理研究院看來,在人工智能發(fā)展的歷史中,曾經(jīng)出現(xiàn)過十個(gè)標(biāo)志性的人工智能治理事件。
舉例來看,2017年,斯坦福大學(xué)一項(xiàng)發(fā)表于《PersonalityandSocialPsychology》的研究引發(fā)社會(huì)廣泛爭議。研究基于超過3.5萬張美國交友網(wǎng)站上男女的頭像圖片訓(xùn)練,利用深度神經(jīng)網(wǎng)絡(luò)從圖像中提取特征,使用大量數(shù)據(jù)讓計(jì)算機(jī)學(xué)會(huì)識(shí)別人們的性取向。
這項(xiàng)研究的爭議點(diǎn)在于,一旦這種技術(shù)推廣開來,夫妻一方會(huì)使用這種技術(shù)來調(diào)查自己是否被欺騙,青少年使用這種算法來識(shí)別自己的同齡人,而在針對(duì)某些特定群體的識(shí)別引發(fā)的爭議則更難以想象。
人工智能治理事件引發(fā)的爭議亦走進(jìn)了2020年。就在2020年1月份,在英國薩里大學(xué)組織的一個(gè)多學(xué)科研究項(xiàng)目中,研究人員使用了一種名為DABUS的人工智能。在研究過程中,DABUS開創(chuàng)性提出了兩個(gè)獨(dú)特而有用的想法:第一是固定飲料的新型裝置;第二是幫助搜救小組找到目標(biāo)的信號(hào)設(shè)備。
在研究人員替DABUS申報(bào)專利成果時(shí),遭到了歐盟專利局的駁回,理由是歐盟專利申請中指定的發(fā)明者必須是人,而不是機(jī)器。薩里大學(xué)研究人員強(qiáng)烈反對(duì)這一決定,他們認(rèn)為因沒有人類發(fā)明者而拒絕將所有權(quán)授予發(fā)明者,將成為阻礙“人類取得偉大成果的新時(shí)代”的重大障礙。
此外,上述智能音箱勸主人自殺、AI換臉應(yīng)用引發(fā)隱私爭議、“監(jiān)測頭環(huán)”進(jìn)校園惹爭議、人工智能可能引發(fā)部門人員失業(yè)風(fēng)險(xiǎn)等事件亦被列入十大人工智能治理事件名單之列。
人工智能的道德邊界在哪里、責(zé)任人如何判定、面對(duì)工智能觸碰用戶隱私是該對(duì)抗還是妥協(xié)、如何從人工智能事件的事后補(bǔ)救轉(zhuǎn)為事前預(yù)防、從一事一議轉(zhuǎn)為有章可循等問題正在成為業(yè)內(nèi)密切關(guān)注的話題。
“人工智能也許會(huì)是人類的終結(jié)者?!睍缫暱萍挤矫嬖艚鹕邦A(yù)言告訴《證券日報(bào)》記者,在過去的十年內(nèi),伴隨著人工智能從理論走向產(chǎn)業(yè)化,并迎來前所未有的發(fā)展機(jī)遇的同時(shí),人工智能也對(duì)數(shù)據(jù)使用、隱私保護(hù)、社會(huì)倫理等人類生活各方面提出新的挑戰(zhàn)。
探路人工智能
向善方向
但從當(dāng)下的市場環(huán)境來看,人工智能發(fā)展期間誕生的這些風(fēng)險(xiǎn)及挑戰(zhàn)或許并非僅靠一個(gè)企業(yè)、一個(gè)機(jī)構(gòu)、一個(gè)行業(yè)甚至一個(gè)國家所能夠攻克的。
“這需要更多跨學(xué)科合作?!睆?fù)旦大學(xué)生命醫(yī)學(xué)倫理研究中心、應(yīng)用倫理學(xué)研究中心主任王國豫教授認(rèn)為,人工智能倫理起源于人們對(duì)人工智能技術(shù)風(fēng)險(xiǎn)的恐懼和擔(dān)憂,人工智能的倫理問題不是單個(gè)的技術(shù)問題,也不是算法問題,而是源于技術(shù)系統(tǒng)和人的社會(huì)生活系統(tǒng)的交互作用,人工智能倫理應(yīng)該從可能性推測走向可行性探索。
談及人工智能治理研究院設(shè)立的初衷,曠視科技方面告訴《證券日報(bào)》記者,研究院期望各界對(duì)人工智能事件有理性的關(guān)注,并針對(duì)事件背后問題做深度的研究,通過社會(huì)各界建設(shè)性的討論,才能最終將人工智能向善這件事付諸實(shí)際的行動(dòng)。
這并非曠視科技首次發(fā)力人工智能的健康發(fā)展。此前,該公司還率先公布了倫理準(zhǔn)則,從正當(dāng)性、人的監(jiān)督、技術(shù)可靠性和安全性、公平和多樣性、問責(zé)和及時(shí)修正、數(shù)據(jù)安全與隱私保護(hù)六個(gè)維度,對(duì)人工智能正確有序發(fā)展做出明確規(guī)范,同時(shí)給出相應(yīng)干預(yù)措施或指導(dǎo)意見,確保人工智能能夠在可控范圍內(nèi)持續(xù)發(fā)展。曠視科技還成立了人工智能道德委員會(huì),致力于與各方探討AI治理相關(guān)的共性問題。
“縱觀歷史發(fā)展,我們必須承認(rèn),人工智能技術(shù)正在改變世界,更在重塑著人類社會(huì)。每一次社會(huì)熱點(diǎn)爭議事件的背后,都是與每個(gè)個(gè)體切身利益相關(guān)的重大議題?!睍缫暱萍挤矫婧粲?,“行正則至遠(yuǎn),AI向善,行勝于言。真理越辯越明,曠視呼吁大家參與討論,為技術(shù)向善貢獻(xiàn)出自己的思考與觀點(diǎn)”。
責(zé)任編輯:陳悠然 SF104
加載中... 視頻 直播 美圖 博客 看點(diǎn) 政務(wù) 搞笑 八卦 情感 旅游 佛學(xué) 眾測