生命未來(lái)研究所近日向全社會(huì)發(fā)布了一封《暫停大型人工智能研究》的公開(kāi)信,呼吁所有人工智能實(shí)驗(yàn)室立即暫停比GPT-4更強(qiáng)大的人工智能系統(tǒng)的訓(xùn)練,暫停時(shí)間至少為6個(gè)月。
千名科技大佬簽署公開(kāi)信
信中寫(xiě)道“只有在我們確信它們的效果是積極的,風(fēng)險(xiǎn)是可控的情況下,才應(yīng)該開(kāi)發(fā)強(qiáng)大的人工智能系統(tǒng)?!瘪R斯克此前曾多次表達(dá)對(duì)人工智能的擔(dān)憂(yōu),認(rèn)為人工智能是未來(lái)人類(lèi)文明最大的風(fēng)險(xiǎn)之一,威脅程度遠(yuǎn)高于車(chē)禍、飛機(jī)失事、毒品泛濫等甚至比核武器都危險(xiǎn)得多。
截至目前,馬斯克、蘋(píng)果聯(lián)合創(chuàng)始人Steve Wozniak、Stability AI創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專(zhuān)家已經(jīng)簽署公開(kāi)信。
值得一提的是,OpenAI CEO奧特曼在與MIT研究科學(xué)家Lex Fridman的最新對(duì)話中指出,AI已經(jīng)出現(xiàn)其無(wú)法解釋的推理能力,同時(shí)承認(rèn)“AI殺死人類(lèi)”有一定可能性。
馬斯克為什么反對(duì)人工智能?
深圳衛(wèi)視直新聞報(bào)道,實(shí)際上,馬斯克反的只是OpenAI和GPT。
馬斯克是生命未來(lái)研究所的最初發(fā)起人,并捐贈(zèng)了1000萬(wàn)美元。
其實(shí),馬斯克也是OpenAI公司的聯(lián)合創(chuàng)始人之一。但他在2018年離開(kāi)了OpenAI的董事會(huì),并撤銷(xiāo)了一大筆贊助款。美國(guó)《財(cái)富》雜志當(dāng)時(shí)報(bào)道稱(chēng),離開(kāi)的原因是因?yàn)轳R斯克雖然支持人工智能,但特斯拉智能駕駛技術(shù)與OpenAI之間有“潛在利益沖突”。報(bào)道中的一句話引人浮想聯(lián)翩——“隨著特斯拉更專(zhuān)注于AI技術(shù)”。還有報(bào)道稱(chēng),馬斯克在離開(kāi)前提出過(guò)由他本人執(zhí)掌OpenAI運(yùn)營(yíng)的建議,但遭到了拒絕。
這就不難理解,為什么離開(kāi)OpenAI后,馬斯克就一直在批評(píng)后者,甚至矛頭直指擊后者最大的支持者——微軟和比爾·蓋茨。
馬斯克解決與OpenAI“潛在技術(shù)沖突”的方式也十分簡(jiǎn)單粗暴,那就是挖走它的人才。2022年離職的特斯拉自動(dòng)駕駛主管Andrej Kapathy就是其中之一。他堪稱(chēng)AI界的超級(jí)網(wǎng)紅,也曾是OpenAI最優(yōu)秀的人才之一。
馬斯克不是痛恨人工智能
從馬斯克和Andrej Kapathy的愛(ài)恨情仇不難看出,馬斯克不是痛恨人工智能,而是痛恨自己沒(méi)有掌握最高級(jí)的技術(shù)。
馬斯克與OpenAI的重大分歧之一在于,OpenAI宣稱(chēng)其目標(biāo)是專(zhuān)注于人工智能安全和道德規(guī)范的開(kāi)放式研究組織。
3月16日,馬斯克在推特上寫(xiě)道:“我仍然很困惑,一個(gè)我捐贈(zèng)了1億美元的非營(yíng)利組織是如何變成一個(gè)市值300億美元的營(yíng)利性組織的。如果這是合法的,為什么不是每個(gè)人都這么做呢?”
馬斯克此前就曾發(fā)推批評(píng)OpenAI,稱(chēng)“OpenAI最初是作為一家開(kāi)源(這就是為什么我把它命名為‘Open’AI)的非營(yíng)利性公司而創(chuàng)建的,為了抗衡谷歌,但現(xiàn)在它已經(jīng)成一家閉源的營(yíng)利性公司,由微軟有效控制……這完全不是我的本意。”
ChatGPT回答
第一財(cái)經(jīng)記者提問(wèn)ChatGPT怎么看馬斯克等人叫停對(duì)它的訓(xùn)練,ChatGPT回答道:“馬斯克叫停GPT訓(xùn)練可能有多種原因,其中一個(gè)可能是擔(dān)心模型被誤用或?yàn)E用,尤其是在自然語(yǔ)言生成和信息操縱方面。GPT模型能夠生成自然語(yǔ)言文本,包括虛假或有害信息,這可能會(huì)對(duì)社會(huì)和個(gè)人造成危害。此外,GPT模型也可能有隱私問(wèn)題,因?yàn)樗梢陨扇祟?lèi)語(yǔ)言,可能會(huì)包含敏感信息?!?/p>
ChatGPT認(rèn)為,叫停GPT訓(xùn)練主要是出于對(duì)社會(huì)責(zé)任和技術(shù)發(fā)展的前瞻性方面的考慮。它還提到,GPT模型可能存在一些局限性,或者不是解決某些問(wèn)題的最佳方法,因此需要嘗試尋找更好的替代方案。