
來源:新浪科技 姜軼群
人工智能誕生有61年,但它從高冷科技到被吃瓜群眾圍觀也就是這幾年的事。我們可能一直在媒體上看到人工智能做各種各樣的事,文可遣詞造句寫文章,武能扛槍指揮上戰(zhàn)場。所以總有一種聲音在告訴我們:人工智能總有一天什么都能做,到時候你就是它寄生的一部分,甚至被它控制。但近期的一系列事件在告訴我們一個相反的結(jié)論:談論人工智能取代人類還為時尚早,至少有一些問題需要解決。
人工智能還不夠成熟
人工智能有一個最基本的優(yōu)點,就是能在長時間的工作中保持中立和準確性,這也是很多公司開發(fā)人工智能的一個主要原因。比如說,IBM Watson認知計算平臺用于醫(yī)療的效果很不錯。但不是所有的人工智能都那么靠譜,比如近期用于Facebook消息流的人工智能就捅了簍子。
Facebook的趨勢新聞版塊一直被人指責有嚴重的政治偏向,后來Facebook炒掉了整個合同工編輯,原來的編輯工作完全由人工智能代替,但沒過幾天,人工智能就闖了大禍:它給趨勢新聞版塊推送了一條假新聞,宣稱?怂闺娨暸_解雇了一名著名主持人,并且稱該主持人是“叛徒”,在Facebook修正錯誤之前,可能有數(shù)百萬用戶看到了假新聞。
Facebook推送的假新聞而后續(xù)更令人驚訝。Facebook為了人工智能炒掉了整個人類新聞編輯團隊,在假新聞事件發(fā)生之后,有三名原新聞編輯站出來宣稱,在他們被解雇之前,F(xiàn)acebook力推的新聞算法其實并不完善,甚至有編輯爆料,原來他們審核人工智能算法推薦的新聞時,發(fā)現(xiàn)算法推薦的50篇文章一般只有20篇才是真新聞,而且這20篇新聞來源也不夠權威。
Facebook“趨勢話題”(Trending)版塊這個事例中,人工智能可能沒有人類編輯對新聞事件的好惡偏向,但新聞本身的準確性大大降低,直接影響了新聞推薦的質(zhì)量。編輯們表示,除了工程師不斷提高算法,編輯對于人工智能系統(tǒng)的訓練也是不可或缺的,但這里的人工智能沒有經(jīng)過充分學習,就被Facebook出于新聞中立性的考慮被急急忙忙推出來見人了。
后來的事情更是嚴重:Facebook推出人工智能新聞算法的時候正好撞上美國大選,然后爭議不斷的特朗普當選總統(tǒng),各種對結(jié)果不滿的人開始指責Facebook:都是你們消息流上的假新聞幫特朗普勝選!這種說法可能有甩鍋的嫌疑,但Facebook上流行各種關于大選的假新聞倒是真的。據(jù)說在歐洲一個叫“馬其頓”的國家,一些青年靠建立假新聞網(wǎng)站、編假新聞來掙廣告費,而傳播假新聞最快的途徑就是通過Facebook,F(xiàn)在,被罵的狗血噴頭的Facebook開始采取各種措施打擊假新聞,效果如何,還尚待時日證明。
這件事情告訴我們,人工智能完全成熟需要時間打磨。技術人員需要不斷改善人工智能的算法;更重要的是,人工智能做到模仿人類思維必然有一個學習的過程,而絕大多數(shù)的學習過程是通過人類訓練而進行的。目前各大科技公司開發(fā)人工智能的時間還不夠長,相應的系統(tǒng)學習也沒有那么成熟,可以說是相當于幾歲或者十幾歲少兒的水平,讓這樣的系統(tǒng)承擔成人才能做的工作,可能超出了目前系統(tǒng)的承擔能力。
人工智能也會被欺騙
相比人工智能本身缺陷導致的錯誤,這一條目前還不太為人所注意,但仔細想想,黑客入侵系統(tǒng)對于人工智能是個顯而易見的威脅。作為以各種算法為基礎的系統(tǒng),一定存在被黑客攻擊的可能。
黑客目前可能最常用的攻擊手段就是欺騙人工智能。近期的各種電信詐騙告訴我們?nèi)祟惐旧硪膊皇菚r刻都保持聰明,對于缺乏完全思維能力的人工智能更是如此。在這方面,黑客把欺騙手段可以玩出花樣。
比如說,美國的研究人員可以通過生成的3D模型欺騙人臉識別系統(tǒng)。這些研究人員首先在社交網(wǎng)站上收集人臉照片,通過這些照片制作人臉3D模型,并加入面部表情或者眨眼之類的小動作,至于皺紋之類的面部細節(jié)可以偽造,這樣生成的人臉3D模型在55%到85%的測試時間中可以騙過五分之四的人臉識別系統(tǒng)。
研究人員通過照片制作人臉3D模型過程除了欺騙人臉識別系統(tǒng),黑客還有可能攻擊自動駕駛系統(tǒng)。比如曾經(jīng)就有黑客利用特斯拉Autopilot系統(tǒng)漏洞,成功“催眠”特斯拉。
研究人員使用“噪音進擊”方式干擾特斯拉如果這個系統(tǒng)本身就不夠成熟,那就搞笑了。曾經(jīng)有記者測試一個剛起步的人工智能投資機器人,結(jié)果這個機器人為記者虛構的創(chuàng)業(yè)項目要扔1400萬美元。
人工智能要給記者虛構的創(chuàng)業(yè)公司“投資”1400萬美元所以說,目前再厲害的人工智能,還是有被欺騙的可能,至少我們不能將它作為唯一的依靠來判斷事情或者做決定。
人工智能還不能明辨是非
談到“明辨是非”,對于目前的人工智能來說可能要求太高,畢竟連人類都不能做到永遠明辨是非。有人甚至害怕,如果讓人工智能明辨是非,就意味著人工智能有了自己的判斷和好惡,這樣它就不能完全聽人類的話,甚至有背叛人類的可能。
其實沒那么玄。之所以讓人工智能學會明辨是非,是讓它能夠判斷出人類讓它做的事情本身是對的還是錯的。一個不會判斷是非的人工智能,可能會變成某個居心不良的人的殺人工具,會無條件執(zhí)行惡人的命令;即使問題沒那么嚴重,也有可能是這么一種情況:一個記性不好的老人讓人工智能機器人給花澆水,但實際上機器人剛剛給花澆過水了。
電影《終結(jié)者》中的機器人讓人工智能判斷命令背后的風險,并且避免風險,是人工智能真正變成“智能”的重要一步。目前其實有人注意到這一點,他們試圖開發(fā)能讓人工智能做出簡單判斷的控制技術,還有人提出要給人工智能教道德和法律。但目前,相關的技術還在開發(fā)中,至于教授道德法律,科技巨頭為此專門召開會議,試圖制定人工智能的道德規(guī)則;而歐洲議會也推進關于自動駕駛和人工智能的相關法案,明確發(fā)生相關事故后的責任,并且要求人工智能機器人要加裝“自毀按鈕”。但這些努力目前都只是個開始。
美國五大科技巨頭開會制定人工智能道德標準美國科技雜志《連線》前主編凱文·凱利曾經(jīng)在他的書中寫到,人類對人工智能的心態(tài)有7個階段。目前我們對人工智能的心態(tài)可能是這樣的:人工智能會做很多事情,但我做的它不一定會,或者它做這些常常出問題,需要我處理,又或者是我需要訓練它學習新任務。這三個階段再進一步,就是人類能放心將任務完全交給它的時候。在筆者看來,跨越前文所述的三個問題,人工智能才能完全承擔人類給它的工作。
甩開英特爾?蘋果被曝未來筆記本將搭載自家芯片