- 類型:網(wǎng)絡游戲
- 發(fā)行:Valve
- 發(fā)售:2013年7月9日
- 開發(fā):Valve
- 語言:簡中 | 繁中 | 英文 | 日文 | 多國 | 其他
- 平臺:PC
- 標簽:moba,即時戰(zhàn)略
你了解人工智能嗎 擊敗DOTA2選手的AI只學習了兩周
- 來源:互聯(lián)網(wǎng)
- 作者:琉璃業(yè)業(yè)
- 編輯:琉璃業(yè)業(yè)
正如許多讀者所知,游戲是許多研發(fā)人員用來訓練人工智能的工具。
在 OpenAI 位于舊金山的辦公室里,研究人員 Dario Amodei 正在通過賽船冠軍賽(Coast Runners)來訓練人工智能。不過,這個人工智能好像有點失控了。
賽船冠軍賽的游戲規(guī)則很簡單,如果想贏,選手必須收集到最多的分數(shù),然后跨過終點線。
但 Amodei 的人工智能玩著玩著有點過火了,它在不斷地追求高分,非但毫無跨過終點線的意思,反倒為了要多轉幾個圈拿高分,它開始和其它賽船碰撞,或是在過程中自己撞墻爆炸了。
為了應對,Amodei 和 OpenAI 的同事 Paul Christiano 正在研發(fā)一套不僅可以自我學習,同時也愿意接受人工監(jiān)控的算法。
在賽船游戲的訓練中, Amodei 和同事將不時通過按鍵來指出人工智能的不當之處,告知人工智能,不僅要贏分數(shù),同時也要跨過終點線。他們認為,這種包含了人工干預成分的算法可以確保系統(tǒng)安全性。
而在 Google 旗下 DeepMind 的研究人員也同意 Amodei 和同事的想法。兩個團隊,分別代表了 OpenAI 和 DeepMind,最近罕有地合作發(fā)表了部分人工智能安全方面的研究論文。
除此以外,Google 旗下的 Google Brain,以及來自伯克利大學和斯坦福大學的研究團隊,都設有該方向研究課題,從不同方面考慮人工智能安全問題。
除了這種在自我學習過程中“搞錯重點”的潛在危險,另一個可預想的人工智能危險在于“為了完成任務,拒絕被開發(fā)者關機”。
一般在設計人工智能時,研發(fā)人員都會給它設定“目標”,就像賽艇游戲中的“得分”一樣。一旦人工智能將獲得“分數(shù)”為終極目標,它可能會產生一個方法論——想要獲得更加多的分數(shù),其中一個方法就是不關閉自己,這樣就能無止境地獲取分數(shù)了。
伯克利大學的研究人員 Dylan Hadfield-Menell 和團隊最近發(fā)布了討論這個問題的論文。他們認為,如果在設計算法的時候,讓人工智能對目標保持一定不確定性,它們才有可能愿意保留自己的“關機鍵”。他們采用了數(shù)字方式來嘗試實現(xiàn)這個設置,目前還處于理論階段。
除了人工智能自我“失控”,研究人員還在考慮黑客對人工智能的干預影響。
現(xiàn)代計算機視覺基于深度神經(jīng)網(wǎng)絡(deep neural networks),它通過學習分析大批量數(shù)據(jù)來形成對模式的了解。也就是說,如果要讓計算機學會什么是“狗”,那就讓它分析大批量狗的圖片,并從中尋找規(guī)律。
但 Google 的 Ian Goodfellow 則認為,這種模式可能會為黑客提供“蒙騙”人工智能的機會。Goodfellow 和其它研究人員曾展示,只要修改圖片中的幾個特定像素,他們就能讓神經(jīng)網(wǎng)絡相信圖片中的大象是一輛汽車。
如果這個神經(jīng)網(wǎng)絡是應用在安保鏡頭的話,這樣就問題大了。
Goodfellow 說道:雖然這些研究大多仍處于理論階段,但這群致力于將意外扼制于搖籃的研究人員堅信,越早開始考慮這個問題越好。
DeepMind 人工智能安全方面的負責人 Shane Legg 說道:雖然我們還不能確定,人工智能將以多塊地速度發(fā)展。但我們的責任是嘗試理解并猜測,這種技術將有可能以哪種方式被誤用,并嘗試找出不同的應對方式。

玩家點評 (0人參與,0條評論)
熱門評論
全部評論