前景不妙
對(duì)人工智能可能對(duì)人類社會(huì)造成的負(fù)面影響以及自身瘋狂發(fā)展方面,伊隆·馬斯克進(jìn)行了大量的思考。這些思考讓他相信,如果人類要存續(xù)下去就需要與機(jī)器相結(jié)合,他甚至創(chuàng)建了一家生物技術(shù)公司致力于開發(fā)實(shí)現(xiàn)這一目標(biāo)所需的腦機(jī)接口技術(shù)。盡管他自己的人工智能實(shí)驗(yàn)室OpenAI已經(jīng)開發(fā)出具備自我學(xué)習(xí)功能的人工智能,但是馬斯克最近表示,要使人工智能絕對(duì)安全,我們只有“5%到10%的成功幾率”。
根據(jù)最近Rolling Stone上發(fā)表的文章,馬斯克與生物技術(shù)公司Neuralink的員工分享了這些信息。盡管馬斯克大力參與人工智能技術(shù)的研發(fā),但他公開宣稱,這項(xiàng)技術(shù)不僅會(huì)帶來好處,也會(huì)給人類社會(huì)帶來嚴(yán)峻的問題。
人工智能技術(shù)在安全方面的挑戰(zhàn)來自兩方面。
首先,人工智能技術(shù)發(fā)展的一個(gè)主要目標(biāo)是開發(fā)出比人類更聰明,而且能獨(dú)立學(xué)習(xí),不需要任何人工編程或干預(yù)的系統(tǒng)。這種能力所造成的影響是未知的。
事實(shí)就是機(jī)器沒有道德,悔恨或情緒。未來的人工智能或許能夠區(qū)分“好”和“壞”的行為,但不會(huì)有人類的感覺。
在這篇文章中,馬斯克進(jìn)一步闡述了人工智能目前存在的危險(xiǎn)和問題,其中之一是少數(shù)幾家公司實(shí)質(zhì)上壟斷了人工智能技術(shù)。在此他以谷歌的DeepMind系統(tǒng)為例。
馬斯克說:“Facebook,谷歌、亞馬遜和蘋果公司都在此列,他們有更多關(guān)于用戶的信息。信息的集中會(huì)帶來很大的風(fēng)險(xiǎn)。那么,如果人工智能代表了一種極端的信息力量,那么谷歌是否應(yīng)該由少數(shù)人來控制呢?
是否值得冒險(xiǎn)?
專家對(duì)馬斯克的論斷褒貶不一。Facebook創(chuàng)始人馬克·扎克伯格(Mark Zuckerberg)表示,他對(duì)未來的人工智能持樂觀態(tài)度,稱馬斯克的警告“非常不負(fù)責(zé)任”。同時(shí),史蒂芬·霍金已經(jīng)公開聲明,表示他相信人工智能系統(tǒng)風(fēng)險(xiǎn)很大,可能會(huì)完全取代人類。
俄羅斯計(jì)算機(jī)科學(xué)家謝爾蓋·尼科連科(Sergey Nikolenko)是一位專門研究機(jī)器學(xué)習(xí)和網(wǎng)絡(luò)算法的俄羅斯計(jì)算機(jī)科學(xué)家,他最近與科技網(wǎng)站Futurism分享了他的想法。尼科連科表示:“在人工智能權(quán)限、問題匹配以及其他相關(guān)問題上,我覺得我們?nèi)匀蝗狈Ρ匾幕纠斫夂头椒??!?/p>
至于今天的人工智能,他認(rèn)為我們沒有什么可擔(dān)心的。尼科連科說:“我敢打賭,在當(dāng)前階段,任何神經(jīng)網(wǎng)絡(luò)都不會(huì)突然醒來,決定推翻人類。”
馬斯克本人可能會(huì)同意這一點(diǎn),但他的觀點(diǎn)可能更多集中在未來人工智能身上。
我們已經(jīng)開發(fā)了人工智能系統(tǒng),有些能夠?qū)崿F(xiàn)自我通信,有些能夠進(jìn)行自我學(xué)習(xí)。雖然機(jī)器人暴動(dòng)目前看起來還是科幻小說中存在的情形,但人工智能目前所取得的進(jìn)步使它們看起來代表了未來的發(fā)展方向。
但是,這些恐懼并不足以讓我們停下前進(jìn)的步伐。我們也能夠用人工智能診斷癌癥,識(shí)別自殺行為,或者是阻止性交易。
這項(xiàng)技術(shù)在全球范圍內(nèi)有挽救和改善生命質(zhì)量的潛力,所以雖然我們必須考慮通過未來的監(jiān)管來確保人工智能的安全,馬斯克的警告最終只是一個(gè)人的意見。
他甚至還向Rolling Stone表示:“我并沒有全部的答案。我真的想清楚所采取的哪些行動(dòng)能夠帶來更美好的未來。如果你有這方面的建議,請(qǐng)告訴我到底是什么。“