最近引起轟動的AI失控事件可以追溯到上個月Facebook傳出關閉智能對話機器人項目的消息。研究員對兩個聊天機器人進行對話策略迭代升級,結(jié)果發(fā)現(xiàn)它們竟自行發(fā)展出了人類無法理解的獨特語言,科研人員不得不對其進行人工干預。
Facebook近日公開回應關閉AI失控語言事件,認為一些媒體的報道有失事實,造成不良影響。Facebook并沒有關閉機器人聊天系統(tǒng),而是在使它們變得更加聰明可控。
一篇論文引起的風波
事件起源于Facebook上個月發(fā)表的一篇論文。論文中闡述了一個Facebook例行的科學研究項目,展示了兩個人工智能機器人如何在看過人類的談判后,開始互相之間展開對話交流,并通過試錯逐漸提升談判的能力。
具體而言,F(xiàn)acebook人工智能研究院的科學家利用神經(jīng)網(wǎng)絡結(jié)構(gòu)開發(fā)了一個人工智能系統(tǒng)。這個結(jié)構(gòu)叫做“生成式對抗網(wǎng)絡”(GenerativeAdversarialNetworks,GAN)。所謂“生成式對抗網(wǎng)絡”,就好比人類的對抗游戲,你的賬戶能在不斷的對抗中提升技能,玩得越多,水平就會越高。
Facebook的研究人員希望訓練這樣一個聊天機器人,讓它帶著“目的”和人類對話。這個目的也很簡單:一共有兩本書、一頂帽子和三個籃球,三樣東西分別設定了不同的權(quán)重,為的是讓機器人明白它到底有哪些需求,然后去和人談判。
Facebook的研究員對兩個機器人聊天能聊成什么樣產(chǎn)生了興趣。在研究過程中,系統(tǒng)中的兩個聊天機器人Alice和Bob產(chǎn)生了讓人看不懂的對話。這段對話炸一看像是一堆無法解讀的亂碼,研究人員后來發(fā)現(xiàn),原來是在為系統(tǒng)設置激勵條件時,雖然告訴了它們“請用英文”,但忘了告訴它們:“請用英文語法”。
這原本是一個非常正常的純學術研究。Facebook人工智能實驗室(FAIR)主任YannLeCun此前接受第一財經(jīng)記者專訪時透露,F(xiàn)acebook每年大約會提交近百篇這樣的論文,并公開實驗結(jié)果。但這項研究卻因為公布了人類所無法理解的語言而受到媒體的大肆炒作。甚至有人擔心“失控”的語言將威脅到人類,必須“關閉”。
北京的一家科技公司國承萬通CEO郭成博士對第一財經(jīng)記者表示:“Facebook不太高明的工程師寫了個不太高明的算法,里面忘記設置要用英語語法交流,結(jié)果兩臺機器自己不管語法,搞了點人仔細看也能看懂的語言出來。就像我們小時候玩的紅白機boss會做一些詭異的攻擊動作一樣。”他補充道,人工智能可能還很傻,千萬別高估了它。
Facebook研究人員對此表示:“人工智能機器人確實沒有使用標準正確的英語語法進行對話,但這并不是重點。這項研究原本是為了使得機器人之間能夠更加有效地進行談判,我們的目的達到了,完成了任務。”
為此,F(xiàn)acebook重新設定了正確的激勵機制,修正了機器人的行為,讓機器人說“人話”。這段表態(tài)中值得注意有兩點,其一,機器人并沒有發(fā)明自己的語言,只是創(chuàng)造了新的表達方式,其二,F(xiàn)acebook修正機器人行為,并不代表“關掉”這個系統(tǒng),原因也不是因為害怕系統(tǒng)失控,而是為了更加有效地進行新的實驗。
上海威盛電子語音交互部門技術總監(jiān)張國峰對第一財經(jīng)記者表示:“只是一項普通的研究實驗,最終的目的也不是讓兩個機器人聊天,而是通過機器人和機器人的聊天,來提高機器人和人聊天的技巧。根本還是為了實現(xiàn)人機之間的交互。”
至于Facebook為什么要允許兩個機器人之間進行交流,張國峰表示,因為機器人的表達方式有限,因此機器人與機器人的對話相對容易做,而目前的人工智能技術尚不支持機器人的邏輯推理能力。
張國峰向第一財經(jīng)記者說道:“給機器設定策略和另外一個機器談判,這確實看上去很智能,但這還是在人設定的邏輯框架下,目前的人工智能尚不具備邏輯推理的能力。
他進一步解釋道,F(xiàn)acebook“關閉”的這個項目就是試圖在開放領域通過互相對話來學習對話策略以及表達方式。“但這并不是說發(fā)明了新的語言,而是它們的語言完全不收斂,這個項目的方法錯了,沒有繼續(xù)的必要。沒有內(nèi)在的推理和記憶能力,通過統(tǒng)計方法學習是一條死路。”
通過機器之間的互相博弈來學習,AlphaGo此前已經(jīng)加入了圍棋推理和記憶能力,所以自己和自己下棋能夠提高棋藝,但是這種推理還是由人類加入的推理,仍然無法在開放領域?qū)崿F(xiàn)。所謂開放領域,就是指沒有限制的對話。相比較于機器之間的對話,機器與人的對話更難,就是因為人的語言是毫無限制的。
人工智能威脅論再現(xiàn)
雖然人工智能發(fā)展迅速,但是目前機器的智慧水平還遠不及人類。所以盡管人工智能威脅論幾乎每十年就會被拋出一次,但反對的聲音蓋過威脅論。為此,F(xiàn)acebookCEO扎克伯格還和特斯拉CEO馬斯克懟上了。馬斯克說他一談到人工智能,就感到恐懼,他認為人工智能是人類存在的最大風險。而扎克伯格卻認為人工智能會讓人們的生活更美好,還稱馬斯克的威脅論極不負責任。
創(chuàng)新工場董事長、CEO李開復也公開反對馬斯克的“威脅論”,他明確反對馬斯克“人工智能終將滅絕人類”的悲觀論調(diào)。李開復表示,人工智能現(xiàn)在僅僅是人類的工具,離擁有意識的“超級智能”的能力還非常遙遠。
針對此次Facebook關閉“失控”AI事件,李開復發(fā)表文章稱,人形機器人將馬上進入千家萬戶的說法是無稽之談。當機器人在言談舉止各方面都與人類極其相似時,普通家庭用戶對機器人的“人類素質(zhì)”的期望也會變得高不可攀。僅僅這種期望所帶來的失望就足以讓很多公司的“未來十年讓科幻小說成為現(xiàn)實”的展望受挫,更別提消費市場對價格的苛刻要求了。
對人工智能持懷疑態(tài)度的最強大的代表是著名物理學家霍金。在今年早些時候舉行的2017全球移動互聯(lián)網(wǎng)大會(GMIC)上,霍金通過視頻發(fā)表主題演講。他表示:“人工智能的崛起可能是人類文明的終結(jié)。”
這已經(jīng)不是霍金第一次提出“人工智能威脅論”。在今年3月,霍金向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止人工智能對人類的威脅進一步上升。
不過,霍金也表示,雖然他對人工智能有各種擔憂,但他對人工智能技術本身還是抱有樂觀的態(tài)度。他認為人工智能帶來的收益是巨大的,人類或許借助這一強大的工具,可以減少工業(yè)化對自然的傷害。但他表示不確定我們是會被智能無限地幫助,還是被無限地邊緣化,甚至毀滅。
借用霍金的話說:“這是一個美麗但充滿不確定的世界,而你們是先行者。”
此內(nèi)容為第一財經(jīng)原創(chuàng)。未經(jīng)第一財經(jīng)授權(quán),不得以任何方式加以使用,包括轉(zhuǎn)載、摘編、復制或建立鏡像。第一財經(jīng)將追究侵權(quán)者的法律責任。
如需獲得授權(quán)請聯(lián)系第一財經(jīng)版權(quán)部:021-22002972或021-22002335;banquan@yicai.com。
本站部分文章來源于網(wǎng)絡,版權(quán)屬于原作者所有;如有轉(zhuǎn)載或引用文章/圖片涉及版權(quán)問題,請聯(lián)系我們處理!