霍金去世前預(yù)言超級(jí)人類將接管世界 對(duì)人工智能提出警告
- 來(lái)源:快科技
- 編輯:liyunfei
知名物理學(xué)家史蒂芬霍金于今年3月逝世,去世前他在英國(guó)《泰晤士報(bào)》上刊載了一系列文章對(duì)未來(lái)做出了非常嚴(yán)峻的預(yù)測(cè),最近出版的書籍整理收集了這些文章。
霍金認(rèn)為,富人們選擇編輯他們的DNA并操縱他們孩子的基因,可能會(huì)導(dǎo)致一群精英人類的誕生。而那些沒(méi)辦法修改基因的人類將會(huì)被降級(jí)為子類,而擁有權(quán)力和財(cái)富的人類則可以調(diào)整他們的基因組,以提高力量、記憶力和抗病能力。
他擔(dān)心,一旦出現(xiàn)超級(jí)人類,那些普通人可能就無(wú)法參與競(jìng)爭(zhēng)了,而這些情況十分有可能在本世紀(jì)出現(xiàn)。除了對(duì)超級(jí)人類表示擔(dān)心,近年來(lái),霍金還對(duì)火熱的人工智能還提出了強(qiáng)烈警告。他寫道:“超智能人工智能的出現(xiàn)將成為人類有史以來(lái)最好或最壞的事情。”
他認(rèn)為人工智能的最大的風(fēng)險(xiǎn)并非惡意,而是能力,一個(gè)超級(jí)聰明的AI將非常善于實(shí)現(xiàn)其目標(biāo),如果這些目標(biāo)與我們的目標(biāo)不一致,我們就會(huì)陷入困境。

玩家點(diǎn)評(píng) (0人參與,0條評(píng)論)
熱門評(píng)論
全部評(píng)論