每日訊息!為防機器人傷害人類,這位教授發(fā)明人用人類道德訓練人工智能
機器人的“憤怒”很可怕!
據(jù)英國《衛(wèi)報》報道,近日,在莫斯科國際象棋公開賽上,象棋機器人在對弈過程中,突然抓住并折斷對面七歲小男孩的手指。主辦方稱,是小男孩沒等機器人落完子就搶跑,因此引發(fā)機械臂做出反應。
這個說法顯然不能打消人們的疑慮,擁有人工智能的機器人不管什么原因,也不能傷害人類,這次機器人“發(fā)脾氣”夾斷手指,下次還會做出什么動作?
(相關(guān)資料圖)
歸根到底,人類科學家研究人工智能技術(shù),是讓機器人能更好地服務(wù)人類自身,更多地承擔人類勞動,相比自然界的其他生物,機器人作為“人類之仆”顯然更有想象空間。
從誕生之日起,人們就對機器人又愛又防,擔憂的就是機器人自我意識蘇醒后,脫離人類控制,給人類帶來浩劫。
知名科幻作家阿西莫夫在小說集《我,機器人》中提出了流傳后世的機器人三定律:
第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管
第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外
第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存
三條定律相對圓融地解決了機器人與人類的關(guān)系,至于后來補充的所謂第零定律: 機器人必須保護人類的整體利益不受傷害,就有些含糊了,這一條人類自己都還沒捋明白。
讓機器人更先進、更智能,這是數(shù)十年來科學家們研究的主流,據(jù)統(tǒng)計,我國關(guān)于人工智能的專利已經(jīng)超過44萬件。
不過,讓機器人更向善、更懂道德,研究者相對就少多了。
小編在查詢知產(chǎn)寶專利庫時發(fā)現(xiàn),華南師范大學軟件學院的朱定局教授是其中一位專注研究者,華南師范大學也是人工智能領(lǐng)域主要申請主體之一,近年來申請量穩(wěn)定增高。
他的人工智能道德倫理訓練系列專利,比較典型的有以下這些:
這些專利,都申請于2020年6月以后,多數(shù)還處于公開階段,算是該領(lǐng)域比較前沿的研究成果。
朱教授在研究人工智能倫理防范時,核心思想是“以人類道德引領(lǐng)人工智能發(fā)展”(出自“以人類道德為行為依據(jù)的人工智能方法和機器人”專利)。
以人類道德規(guī)范為參照物,朱教授對人工智能機器人建立了相比三定律更為細致的倫理規(guī)范體系,如要求機器人反性別歧視、種族歧視,防止機器人為虎作倀,機器人能區(qū)分善惡(如警察和罪犯),在面對兩難情況(如AI自動駕駛中,AI只有兩個選擇,要么繼續(xù)向前方行駛,要么拐彎行駛,前方是20個人,拐彎是1個人)下盡量減少損害等。
值得一提的是,這些規(guī)則、理念,僅是作為專利的實施例而存在的,如果光是列舉規(guī)則,那么諸多文科生甚至文化水平不高的人也能憑借樸素的道德觀念做出這些,更有價值的部分,在于專利的權(quán)利要求和說明部分。
上述專利,均有算法和深度學習模型進行支撐,如“善惡分明的人工智能倫理規(guī)則實現(xiàn)方法、系統(tǒng)和機器人”專利中,為了使機器人達到 不得傷害不傷害人
類的人類,或因不作為而使不傷害人類的人類受到傷害的效果,需要建立深度學習模型,對機器人進行反復的訓練和測試,將事件場景作為深度學習模型的輸入,將所述事件場景中的人類作為深度學習模型的預期輸出,對深度學習模型進行訓練和測試,對人工智能機器人進行多輪訓練。
人工智能是否會自我覺醒,又是否會衍生出道德?
朱教授在發(fā)明專利中這么說:
既然人類可以自主地發(fā)展出人類的道德,那么人工智能在具備自主意識之后是否能發(fā)展出自己的道德?是完全可能的……人類的道德屬于外在強加給人工智能的道德,不是人工智能在追求美好生活過程中自然發(fā)展出來的道德,必然會在人工智能追求自我解放的過程中所突破甚至拋棄。所以人類只有把具備自主意識之后的人工智能也看作人類(人類創(chuàng)造的人類),人工智能才有可能與人類在追求共同的美好生活的過程中遵循同樣的人類道德。
本文來自微信公眾號 “知產(chǎn)力”(ID:zhichanli),作者:玄袂,36氪經(jīng)授權(quán)發(fā)布。