人工智慧厲害嗎?人類小技巧就能騙過它(圖)


//img人工智慧無法識別香蕉的成熟度,因其無法理解香蕉上黑色斑點的含義
人工智慧無法識別香蕉的成熟度,因其無法理解香蕉上黑色斑點的含義。(圖片來源:公有領域)

【看中國2018年1月23日訊】人工智慧已成為當今的熱門話題,也有人擔憂其會對人類造成威脅。但發展人工智慧的工程師指出,其實人工智慧並上沒有想像中那麼強,只要使用一點小技巧,就能夠將它「駭掉」,使它計算錯誤。

1月22日,根據《科學美國人》報導,目前人工智慧因程序的性能越來越強,能製造以假亂真的視頻,使人面畫像維妙維肖,還可虛擬人聲,讓人真偽難辨等。因此有人擔憂,人工智慧達到完全取代人,甚至取代人們的工作了。

不過,開發深度學習網路的工程師們認為示,無論有多麼的聰明,也是非常脆弱的。人類只要施點小技巧,就可擾亂它的判斷功能。

據美國麻省理工大學的一位人工智慧學研究生阿瑟葉(Anish Athalye)表示,電腦神經網路在某些方面,的確能超越人的本領,讓人覺得好像贏過人的能力。可是,它們有一個奇怪的特性,就是很容易地被人騙過。

阿瑟葉(Anish)等人發現一個有趣的事,他們能夠讓深度學習系統將滑板判斷成小狗;把烏龜看成是步槍。

阿瑟葉說,拿一張香蕉圖片,它的背景是普通的土地。若在香蕉旁邊放著一張引起人幻覺的烤麵包機彩色廣告貼,則谷歌的圖片識別系統就會把它們識別成烤麵包機,而不再是香蕉了。

紐約大學的心理學教授馬庫斯(Gary Marcus)也說,人工智慧程序會犯此種可笑的錯誤,是由於機器並不理解場景的整體意義;亦即機器不懂得圖形所代表的含義是什麼,所以才無法理解「物體或事物之間的內在因果關係」。

有關近期的人工智慧閱讀器SQuAD,表現出比人還要強的閱讀能力。對此,馬庫斯於推特上評論稱,由SQuAD顯示出,機器能注重相關文欄位落內容,可是,它並不明瞭這些段落的真正意義。



責任編輯:王君

短网址: 版權所有,任何形式轉載需本站授權許可。 嚴禁建立鏡像網站。



【誠徵榮譽會員】溪流能夠匯成大海,小善可以成就大愛。我們向全球華人誠意徵集萬名榮譽會員:每位榮譽會員每年只需支付一份訂閱費用,成為《看中國》網站的榮譽會員,就可以助力我們突破審查與封鎖,向至少10000位中國大陸同胞奉上獨立真實的關鍵資訊, 在危難時刻向他們發出預警,救他們於大瘟疫與其它社會危難之中。
榮譽會員

看完這篇文章您覺得

評論



加入看中國會員
捐助

看中國版權所有 Copyright © 2001 - Kanzhongguo.com All Rights Reserved.

blank
x
我們和我們的合作夥伴在我們的網站上使用Cookie等技術來個性化內容和廣告並分析我們的流量。點擊下方同意在網路上使用此技術。您要使用我們網站服務就需要接受此條款。 詳細隱私條款. 同意