倫理道德法律框架設(shè)計滯后
人工智能火了,人類有些尷尬了
索菲亞不是人,她只是個很聰明的機器人;索菲亞又是“人”,不久前,她被沙特授予公民身份,加入人類籍。
索菲亞很友好,與人談笑自如,甚至還會眼神交流,并在MV里與歌星王力宏“結(jié)了婚”;索菲亞又很“恐怖”,聲稱未來目標(biāo)是想去上學(xué),成立家庭,并——毀滅人類。
無論這句話是調(diào)侃還是隱喻,設(shè)計出她的人類,尷尬了。
在近日召開的“人工智能的技術(shù)、倫理與法律的關(guān)鍵科學(xué)問題”的香山科學(xué)會議上,中科院科技戰(zhàn)略咨詢研究院研究員李真真舉索菲亞的例子,是想提出一個問題:在技術(shù)高歌猛進的同時,人工智能不斷模糊著物理世界和個人的界限,不斷刷新人的認知和社會關(guān)系,延伸出復(fù)雜的倫理、法律和安全問題,但相應(yīng)的規(guī)范和制度設(shè)計還存在盲區(qū),這是一個極大的挑戰(zhàn)。
“我國的人工智能技術(shù)可謂與世界發(fā)達國家‘同步’,但倫理和法律研究則嚴(yán)重滯后,這種‘缺位’會制約我們未來的發(fā)展。”李真真說。
為構(gòu)建一個人工智能健康發(fā)展的倫理和法律環(huán)境,來自自然科學(xué)、人文社會科學(xué)領(lǐng)域的專家學(xué)者和產(chǎn)業(yè)界人士聚集在一起,嘗試跨越學(xué)科的鴻溝,尋找共同的交集,研討人工智能最基本的問題。
人工智能很牛嗎?牛,但也有可能犯大錯
人工智能火了!人工智能牛了!很大程度歸功于近年來一只不斷進化的“狗”——阿爾法狗(AlphaGo)。
中科院院士張鈸簡單分析了人工智能發(fā)展的兩條路徑:一是符號主義,即從信息處理的宏觀層面去模擬智能;二是連接主義,即從網(wǎng)絡(luò)介觀層面去模擬人類行為。當(dāng)人工智能的開拓者提出上述方向時,不少人認為不可能,但事實證明這兩條路都行得通。
“人工智能第一次震撼,是IBM的‘深藍’程序打贏國際象棋冠軍,這是用計算機模擬人類下象棋的理性思考過程,證明了符號主義這一條路走得通?!睆堚撜f。
人工智能第二次對人類的“暴擊”,是基于神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí),AlphaGo拋棄了傳統(tǒng)圍棋程序的編程方法,創(chuàng)造性地利用機器學(xué)習(xí),來獲取下棋的經(jīng)驗與直覺,結(jié)果戰(zhàn)勝世界圍棋冠軍?!案档米⒁獾氖茿lphaGo Zero從零開始,通過36小時自我學(xué)習(xí),超越人類3000年的圍棋經(jīng)驗,以100比0擊敗了上一版本的AlphaGo。這證明第二條路也走得通?!睆堚撜f。
“這讓人歡欣鼓舞,也令人擔(dān)憂?!睆堚摰摹皯n”,指的是基于深度學(xué)習(xí)的人工智能系統(tǒng)存在的根本性缺陷——不可解釋和不可理解,就事論事,缺乏推廣能力,遇到新的情況一籌莫展等。因此當(dāng)面對動態(tài)變化的環(huán)境,信息不完全、存在干擾與虛假信息時,人工智能系統(tǒng)性能就會顯著下降。
“當(dāng)前的人工智能與人類智能本質(zhì)上是不同的?!睆堚撜f,與人類相比,人工智能系統(tǒng)抗干擾能力(魯棒性)差,推廣能力弱,甚至可能犯大錯?!盎谏疃葘W(xué)習(xí)的模式識別系統(tǒng)盡管可以準(zhǔn)確地區(qū)分不同事物,但本質(zhì)上不認識它們。與人類不一樣,它不會舉一反三,更不會‘知其所以然’。使用這樣的人工智能系統(tǒng)需要十分小心?!?/p>
“現(xiàn)在大家對人工智能有無限期待。圍棋有規(guī)則,現(xiàn)實生活中沒有規(guī)則。人工智能產(chǎn)品完成單項任務(wù)很牛,但遇到復(fù)雜情況,實際沒那么厲害?!焙柟綜TO趙峰認為。
人工智能可怕嗎?遠慮尚“遠”,近憂在即
人工智能會威脅人類嗎?馬斯克、霍金、扎克伯格……科技和產(chǎn)業(yè)界的大腕對此的爭論和互懟一直沒有停歇。
參加香山科學(xué)會議的科學(xué)家認為,人工智能威脅論擁躉者所指的“強人工智能”到來還比較遠,現(xiàn)在發(fā)展的多是擅長完成單項任務(wù)的“弱人工智能”?!叭斯ぶ悄苓€在生長發(fā)展過程中,是否造成威脅估計是下一代科學(xué)家面臨的問題,我們現(xiàn)在的任務(wù)是把它‘養(yǎng)大’?!辈贿^,中科院院士何積豐也坦承,現(xiàn)在人工智能也有“內(nèi)憂外患”,如無人機黑飛亂飛管理亂象,恐怖主義黑客攻擊等。
“世界上沒有免費的午餐,機器通過‘黑箱’學(xué)習(xí)(深度學(xué)習(xí))方法取得的智能,由于與人類認知行為存在根本差異,因此也將帶來潛在的風(fēng)險?!睆堚撜f,人工智能全面超越人類智能并出現(xiàn)自我意識,是危險的,不過這是遠慮;但其不可解釋性會帶來“近憂”,如將深度學(xué)習(xí)應(yīng)用于軍事決策,萬一系統(tǒng)出現(xiàn)原則性決策失誤怎么辦?
人類準(zhǔn)備好了嗎?遠遠沒有,急需跟進
“人類現(xiàn)有的概念框架及知識儲備難以應(yīng)對人工智能帶來的影響,也使我們不得不面對‘制度性風(fēng)險’?!崩钫嬲嬲f,人工智能技術(shù)的社會應(yīng)用迅速改變了人類的生存環(huán)境,重塑人的行為,也不斷挑戰(zhàn)諸如隱私、責(zé)任等概念內(nèi)涵及其既有策略。
李真真以“隱私”舉例說,傳統(tǒng)法律上,隱私是一種權(quán)利的概念,但現(xiàn)在它還可以是一種商品,即我們讓出一部分個人的隱私或信息以換取服務(wù)和產(chǎn)品,這就需要法律的及時跟進。再有,匿名化技術(shù)的發(fā)展為隱私保護提供了新的工具,但如果對于匿名化數(shù)據(jù)的法律概念和認定標(biāo)準(zhǔn)上沒有明確規(guī)定,很可能會導(dǎo)致數(shù)據(jù)的濫用。同時,隱私保護與國家安全、商業(yè)利益如何平衡,也是問題。再比如“責(zé)任”,比較典型的就是自動駕駛系統(tǒng)的責(zé)任認定?!斑€有人工智能的預(yù)測或決策,如預(yù)測犯罪,這將使我們面對一個更為復(fù)雜的法律問題。”
“法律具有滯后性,這就要求我們不斷地根據(jù)出現(xiàn)的新情況和新的社會難題,對人工智能帶來的影響進行倫理評估,以保障相關(guān)法律和政策的及時跟進?!崩钫嬲嬲f。
人機可以和諧共處嗎?嵌入倫理法律框架是最大的科學(xué)挑戰(zhàn)
人工智能是否會產(chǎn)生歧視?答案是肯定的,這可以體現(xiàn)在數(shù)據(jù)選擇和算法上。
有科學(xué)家研究,通過使用機器學(xué)習(xí)算法幫助銀行提供接受還是拒絕房貸的建議,無論如何,在審查神經(jīng)網(wǎng)絡(luò)決策制定流程的結(jié)果時,發(fā)現(xiàn)黑人申請的批準(zhǔn)率大大低于白人申請的批準(zhǔn)率。
這就是人工智能工具存在的“黑箱”般的不透明性。
“人機關(guān)系中,智能機器與人類的價值觀和規(guī)范體系必須一致。”李真真說,如何將人類的價值觀和規(guī)范嵌入人工智能系統(tǒng),賦予AI以人性的光輝,成為當(dāng)前所面臨最現(xiàn)實的挑戰(zhàn)。
前有科幻小說家阿西莫夫著名的機器人學(xué)三大定律,近年來,國際人工智能界日益重視人工智能中的倫理與法律問題,并推動相關(guān)技術(shù)標(biāo)準(zhǔn)及社會規(guī)范的研討和制定,如IEEE全球人工智能與倫理倡議、阿西洛馬人工智能23條倫理原則,我國的《新一代人工智能發(fā)展規(guī)劃》也專門提出人工智能倫理與法律的三步走規(guī)劃。“但是,將倫理與法律要求嵌入到AI系統(tǒng),仍是全世界前沿性的科學(xué)難題,這需要技術(shù)、倫理、法律等控制手段配合使用、高度融合和跨學(xué)科合作?!崩钫嬲嬲f。
“智能機器不是代替人,而是要協(xié)助人做好工作。人和機器各有優(yōu)勢,要互相了解才能實現(xiàn)人機協(xié)作,但人還是人機關(guān)系的主導(dǎo)者。依照這種思想,才可能將人工智能引向人機合作的發(fā)展道路。”張鈸說。
?
?
相關(guān)鏈接:
科技部引導(dǎo)性政策發(fā)布:新一代人工智能又有大動作?
·凡注明來源為“??诰W(wǎng)”的所有文字、圖片、音視頻、美術(shù)設(shè)計等作品,版權(quán)均屬??诰W(wǎng)所有。未經(jīng)本網(wǎng)書面授權(quán),不得進行一切形式的下載、轉(zhuǎn)載或建立鏡像。
·凡注明為其它來源的信息,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。
網(wǎng)絡(luò)內(nèi)容從業(yè)人員違法違規(guī)行為舉報郵箱:jb66822333@126.com