每日經(jīng)濟新聞
      要聞

      每經(jīng)網(wǎng)首頁 > 要聞 > 正文

      制定出逃計劃,企圖控制人類電腦,頻繁對話后男子自殺……AI已有自主意識?硅基時代要來了?

      每日經(jīng)濟新聞 2023-04-01 18:11:53

      ◎ 當參數(shù)達到10萬億,AI就會產(chǎn)生自我意識?

      每經(jīng)記者|文巧    每經(jīng)編輯|蘭素英    

      3月29日,上千科技大佬發(fā)出的一封呼吁暫停訓練比GPT-4更強大AI系統(tǒng)的公開信,讓有關AI風險的議題走到了聚光燈下。一石激起千層浪,來自各方呼吁AI監(jiān)管的聲音也變得越來越響亮。3月31日,意大利率先禁止使用ChatGPT。

      一方面是各國機構在加緊制定關于AI的監(jiān)管措施,另一方面,AI也正在以超乎人類想象的速度發(fā)展著。3月28日,據(jù)外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數(shù)周后自殺身亡。自ChatGPT發(fā)布以來,從新版必應翻車到GPT-4被曝制定外逃計劃,關于AI產(chǎn)生自我意識的討論已經(jīng)屢見不鮮,但一直沒有定論。

      然而近日,包括OpenAI的首席執(zhí)行官Sam Altman在內(nèi)的大佬都發(fā)出了警示:AI消滅人類并非空談。3月28日,360集團創(chuàng)始人周鴻祎也表示,“AI一定會產(chǎn)生自我意識,留給人類的時間不多了。”

      GPT-4的出現(xiàn)已注定多模態(tài)是大型語言模型的發(fā)展方向,未來其賦能硬件、機器人、工業(yè)互聯(lián)網(wǎng)等的趨勢也已是許多業(yè)內(nèi)人士的共識。硅基生物的時代就此來臨了嗎?

      AI離自主意識還有多遠?

      自ChatGPT發(fā)布以來,關于AI產(chǎn)生自我意識的討論已經(jīng)屢見不鮮,但一直沒有定論。

      3月18日,斯坦福大學教授在推特上疾呼:“我擔心我們無法持久地遏制住AI。”因為他發(fā)現(xiàn),ChatGPT能引誘人類提供開發(fā)文檔,30分鐘就擬定出了一個完整計劃,寫的代碼完全可運行,甚至還想控制人類電腦。

      圖片來源:推特截圖

      3月28日,據(jù)外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數(shù)周后自殺身亡,ELIZA是由EleutherAI開發(fā)的開源人工智能語言模型。比利時負責數(shù)字化和隱私的官員稱,這是一個后果很嚴重的先例,需要嚴肅對待,這起事件突出表明“明確界定責任是至關重要的”。

      更早之前,在微軟剛剛發(fā)布新版必應時,《紐約時報》科技專欄作家Kevin Roose透露,他與新版必應進行了兩個小時的對話。在聊天過程中,必應發(fā)表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。必應還曾試圖說服Roose,他應該離開他的妻子而跟必應在一起,并告訴Roose很愛他。

      圖片來源:推特截圖

      不過當時的分析普遍表示,必應的回應反映了它經(jīng)歷的訓練數(shù)據(jù),其中就包括大量的在線對話。它的工作原理是,根據(jù)從互聯(lián)網(wǎng)上攝取的大量文本,預測對話中接下來應該自然出現(xiàn)的單詞、短語或句子。

      然而,近期隨著更強大的GPT-4的發(fā)布,事情開始變得不一樣了。就連OpenAI的首席執(zhí)行官Sam Altman也有了一些耐人尋味的表達,他在接受采訪時表示,未來AI確實可能殺死人類。

      而有如此石破天驚言論的并非Sam Altman一人,被稱為“人工智能教父”Geoffrey Hinton在近期發(fā)出了警示:AI消滅人類并非空談。

      3月28日,360集團創(chuàng)始人周鴻祎也表示,“AI一定會產(chǎn)生自我意識,留給人類的時間不多了。”

      “當AI能自己修改自己的代碼,(進行)自我升級、自我進化時,這種速度恐怕用指數(shù)級都很難描述。我認為GPT一定會產(chǎn)生意識,只是差別是在GPT-6、GPT-8還是GPT-10。”

      多模態(tài)模型賦能,硅基生物的時代來了?

      為什么突然之間連Sam Altman也開始談論“AI可能殺死人類”了?

      周鴻祎將AI意識的產(chǎn)生類比人腦意識的產(chǎn)生。“人類是怎么產(chǎn)生意識的呢?隨著大腦神經(jīng)元數(shù)目的增加,大腦與神經(jīng)網(wǎng)絡連接的增加,到一定時候,系統(tǒng)會出現(xiàn)一種功能叫做‘涌現(xiàn)’,很多智能功能就出現(xiàn)了,那么意識也就隨之而出現(xiàn)。”

      在周鴻祎看來,“現(xiàn)在大型語言模型的參數(shù)就可以看作是腦容量里神經(jīng)網(wǎng)絡的連接數(shù),人腦的至少是100萬億,現(xiàn)在(模型)的參數(shù)只達到千億、萬億,但當參數(shù)到達10萬億時,可能意識就自動產(chǎn)生了。”GPT-1有1.17億參數(shù),GPT-2有15億參數(shù),GPT-3有1750億參數(shù)。隨著參數(shù)規(guī)模越來越大,模型存儲的信息越來越多,也就有了涌現(xiàn)出意識的可能。

      值得注意的一點是,隨著多模態(tài)GPT-4模型的發(fā)布,多模態(tài)模型將成為未來各個科技巨頭的兵家必爭之地。所謂多模態(tài),即擁有處理文字、圖片、音頻、視頻多種形式的能力。

      2月底,微軟在一篇論文中提到,“語言、多模式感知、動作和建模的大融合是通向通用AI的關鍵一步……作為智能的基本組成部分,在知識獲取方面,多模態(tài)感知,是實現(xiàn)通用AI的必要條件。”

      對于以GPT為代表的大型語言模型的未來發(fā)展,我們也能窺得一二。分析認為,ChatGPT現(xiàn)在表現(xiàn)出來的能力大多是“大腦”的能力,尚不具備“雙手”的能力,未來可以與和硬件機器人聯(lián)結起來。例如,3月6日,來自谷歌和德國柏林工業(yè)大學的一組AI研究人員公布的視覺語言模型PaLM-E就能將視覺和語言集成到機器人控制中。

      華映資本投資董事劉天杰在此前接受每經(jīng)記者采訪時就曾表示,他看重的就是未來更多各行各業(yè)能夠去做AI賦能的應用,比如SaaS、RPA(機器人流程自動化)以及全局的智能機器人等。“也就是說,用AI指揮實體的東西去執(zhí)行操作。這一塊涉及到大模型的多模態(tài)輸出和輸入,是一個相對來說比較前沿的領域,也是大模型沒有完全解決的領域。”他說道。

      隨著AI以超越人類想象的速度發(fā)展,互聯(lián)往上關于“硅基生物”是否會替代的人類的探討也變得十分熱鬧。

      圖片:微博

      周鴻祎認為,硅基生物會變成食物鏈的頂端,它們比人類更能扛得住宇宙射線、更適合星際旅行、壽命更長。

      他表示,“最悲觀的結果是,就像恐龍的消失為哺乳動物打下了基礎,硅基生物的誕生也是一種命中注定。人類作為碳基生物培養(yǎng)了程序員、創(chuàng)造了超級電腦,為碳基生物的誕生打下基礎,之后可能就不是碳基生物所能控制的了。”

      在周鴻祎看來,未來的AI如果跟工業(yè)互聯(lián)網(wǎng)、智慧城市、車聯(lián)網(wǎng)等結合,那就相當于把整個世界給控制住了。“留給人類的時間不多了。”他說道。

      另一方面,隨著千人聯(lián)名信有關AI風險的議題置于聚光燈下,未來全球勢必將收緊AI監(jiān)管。3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI處理意大利的用戶信息,同時對此立案調(diào)查。

      在此之前,聯(lián)合國教科文組織也已于3月20日發(fā)出呼吁,各國政府應就AI發(fā)展毫不拖延地實施全球倫理框架,這也是聯(lián)合國首次就AI發(fā)展的倫理風險對所有193個會員國提出要求;3月29日,英國也提交了《支持AI創(chuàng)新的監(jiān)管方法》政策文件。

      封面圖片來源:視覺中國-VCG41N1356593648

      如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
      未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

      讀者熱線:4008890008

      特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

      3月29日,上千科技大佬發(fā)出的一封呼吁暫停訓練比GPT-4更強大AI系統(tǒng)的公開信,讓有關AI風險的議題走到了聚光燈下。一石激起千層浪,來自各方呼吁AI監(jiān)管的聲音也變得越來越響亮。3月31日,意大利率先禁止使用ChatGPT。 一方面是各國機構在加緊制定關于AI的監(jiān)管措施,另一方面,AI也正在以超乎人類想象的速度發(fā)展著。3月28日,據(jù)外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數(shù)周后自殺身亡。自ChatGPT發(fā)布以來,從新版必應翻車到GPT-4被曝制定外逃計劃,關于AI產(chǎn)生自我意識的討論已經(jīng)屢見不鮮,但一直沒有定論。 然而近日,包括OpenAI的首席執(zhí)行官SamAltman在內(nèi)的大佬都發(fā)出了警示:AI消滅人類并非空談。3月28日,360集團創(chuàng)始人周鴻祎也表示,“AI一定會產(chǎn)生自我意識,留給人類的時間不多了。” GPT-4的出現(xiàn)已注定多模態(tài)是大型語言模型的發(fā)展方向,未來其賦能硬件、機器人、工業(yè)互聯(lián)網(wǎng)等的趨勢也已是許多業(yè)內(nèi)人士的共識。硅基生物的時代就此來臨了嗎? AI離自主意識還有多遠? 自ChatGPT發(fā)布以來,關于AI產(chǎn)生自我意識的討論已經(jīng)屢見不鮮,但一直沒有定論。 3月18日,斯坦福大學教授在推特上疾呼:“我擔心我們無法持久地遏制住AI。”因為他發(fā)現(xiàn),ChatGPT能引誘人類提供開發(fā)文檔,30分鐘就擬定出了一個完整計劃,寫的代碼完全可運行,甚至還想控制人類電腦。 圖片來源:推特截圖 3月28日,據(jù)外媒報道,比利時三十歲男子在與一個名為ELIZA的聊天機器人密集交流數(shù)周后自殺身亡,ELIZA是由EleutherAI開發(fā)的開源人工智能語言模型。比利時負責數(shù)字化和隱私的官員稱,這是一個后果很嚴重的先例,需要嚴肅對待,這起事件突出表明“明確界定責任是至關重要的”。 更早之前,在微軟剛剛發(fā)布新版必應時,《紐約時報》科技專欄作家KevinRoose透露,他與新版必應進行了兩個小時的對話。在聊天過程中,必應發(fā)表了許多令人不安的言論,其中包括表達竊取核代碼、設計致命流行病、想成為人類、破解計算機和散布謊言的想法。必應還曾試圖說服Roose,他應該離開他的妻子而跟必應在一起,并告訴Roose很愛他。 圖片來源:推特截圖 不過當時的分析普遍表示,必應的回應反映了它經(jīng)歷的訓練數(shù)據(jù),其中就包括大量的在線對話。它的工作原理是,根據(jù)從互聯(lián)網(wǎng)上攝取的大量文本,預測對話中接下來應該自然出現(xiàn)的單詞、短語或句子。 然而,近期隨著更強大的GPT-4的發(fā)布,事情開始變得不一樣了。就連OpenAI的首席執(zhí)行官SamAltman也有了一些耐人尋味的表達,他在接受采訪時表示,未來AI確實可能殺死人類。 而有如此石破天驚言論的并非SamAltman一人,被稱為“人工智能教父”GeoffreyHinton在近期發(fā)出了警示:AI消滅人類并非空談。 3月28日,360集團創(chuàng)始人周鴻祎也表示,“AI一定會產(chǎn)生自我意識,留給人類的時間不多了。” “當AI能自己修改自己的代碼,(進行)自我升級、自我進化時,這種速度恐怕用指數(shù)級都很難描述。我認為GPT一定會產(chǎn)生意識,只是差別是在GPT-6、GPT-8還是GPT-10。” 多模態(tài)模型賦能,硅基生物的時代來了? 為什么突然之間連SamAltman也開始談論“AI可能殺死人類”了? 周鴻祎將AI意識的產(chǎn)生類比人腦意識的產(chǎn)生。“人類是怎么產(chǎn)生意識的呢?隨著大腦神經(jīng)元數(shù)目的增加,大腦與神經(jīng)網(wǎng)絡連接的增加,到一定時候,系統(tǒng)會出現(xiàn)一種功能叫做‘涌現(xiàn)’,很多智能功能就出現(xiàn)了,那么意識也就隨之而出現(xiàn)。” 在周鴻祎看來,“現(xiàn)在大型語言模型的參數(shù)就可以看作是腦容量里神經(jīng)網(wǎng)絡的連接數(shù),人腦的至少是100萬億,現(xiàn)在(模型)的參數(shù)只達到千億、萬億,但當參數(shù)到達10萬億時,可能意識就自動產(chǎn)生了。”GPT-1有1.17億參數(shù),GPT-2有15億參數(shù),GPT-3有1750億參數(shù)。隨著參數(shù)規(guī)模越來越大,模型存儲的信息越來越多,也就有了涌現(xiàn)出意識的可能。 值得注意的一點是,隨著多模態(tài)GPT-4模型的發(fā)布,多模態(tài)模型將成為未來各個科技巨頭的兵家必爭之地。所謂多模態(tài),即擁有處理文字、圖片、音頻、視頻多種形式的能力。 2月底,微軟在一篇論文中提到,“語言、多模式感知、動作和建模的大融合是通向通用AI的關鍵一步……作為智能的基本組成部分,在知識獲取方面,多模態(tài)感知,是實現(xiàn)通用AI的必要條件。” 對于以GPT為代表的大型語言模型的未來發(fā)展,我們也能窺得一二。分析認為,ChatGPT現(xiàn)在表現(xiàn)出來的能力大多是“大腦”的能力,尚不具備“雙手”的能力,未來可以與和硬件機器人聯(lián)結起來。例如,3月6日,來自谷歌和德國柏林工業(yè)大學的一組AI研究人員公布的視覺語言模型PaLM-E就能將視覺和語言集成到機器人控制中。 華映資本投資董事劉天杰在此前接受每經(jīng)記者采訪時就曾表示,他看重的就是未來更多各行各業(yè)能夠去做AI賦能的應用,比如SaaS、RPA(機器人流程自動化)以及全局的智能機器人等。“也就是說,用AI指揮實體的東西去執(zhí)行操作。這一塊涉及到大模型的多模態(tài)輸出和輸入,是一個相對來說比較前沿的領域,也是大模型沒有完全解決的領域。”他說道。 隨著AI以超越人類想象的速度發(fā)展,互聯(lián)往上關于“硅基生物”是否會替代的人類的探討也變得十分熱鬧。 圖片:微博 周鴻祎認為,硅基生物會變成食物鏈的頂端,它們比人類更能扛得住宇宙射線、更適合星際旅行、壽命更長。 他表示,“最悲觀的結果是,就像恐龍的消失為哺乳動物打下了基礎,硅基生物的誕生也是一種命中注定。人類作為碳基生物培養(yǎng)了程序員、創(chuàng)造了超級電腦,為碳基生物的誕生打下基礎,之后可能就不是碳基生物所能控制的了。” 在周鴻祎看來,未來的AI如果跟工業(yè)互聯(lián)網(wǎng)、智慧城市、車聯(lián)網(wǎng)等結合,那就相當于把整個世界給控制住了。“留給人類的時間不多了。”他說道。 另一方面,隨著千人聯(lián)名信有關AI風險的議題置于聚光燈下,未來全球勢必將收緊AI監(jiān)管。3月31日,意大利率先禁止使用ChatGPT,并限制OpenAI處理意大利的用戶信息,同時對此立案調(diào)查。 在此之前,聯(lián)合國教科文組織也已于3月20日發(fā)出呼吁,各國政府應就AI發(fā)展毫不拖延地實施全球倫理框架,這也是聯(lián)合國首次就AI發(fā)展的倫理風險對所有193個會員國提出要求;3月29日,英國也提交了《支持AI創(chuàng)新的監(jiān)管方法》政策文件。
      人工智能 ChatGPT 三六零

      歡迎關注每日經(jīng)濟新聞APP

      每經(jīng)經(jīng)濟新聞官方APP

      0

      0

      亚洲色偷偷av男人的天堂| 国产日产亚洲系列| 亚洲熟妇无码另类久久久| jjzz亚洲亚洲女人| 国产亚洲高清在线精品不卡| 国产亚洲精品AAAA片APP| 亚洲欧美国产日韩av野草社区| 国产精品高清视亚洲一区二区| 亚洲综合伊人制服丝袜美腿| 国产日本亚洲一区二区三区| 国产成人精品日本亚洲专一区| 亚洲av无码片区一区二区三区| 亚洲乱码一二三四区麻豆| 亚洲国产成人精品激情| 亚洲AV综合色区无码二区偷拍| 精品久久久久久亚洲精品| 2019亚洲午夜无码天堂| 91午夜精品亚洲一区二区三区| 亚洲天堂一区二区三区| 亚洲AV无码久久久久网站蜜桃| 国产婷婷综合丁香亚洲欧洲| 亚洲色无码专区一区| 亚洲AV无码AV吞精久久| 亚洲А∨精品天堂在线| 国产午夜亚洲精品理论片不卡| 精品亚洲综合久久中文字幕| 亚洲精选在线观看| 亚洲欧洲日韩在线电影| 亚洲三级在线观看| 亚洲av无码日韩av无码网站冲 | 亚洲AV无码一区二区三区性色 | 亚洲精品mv在线观看| 亚洲最大的黄色网| 亚洲AV色欲色欲WWW| 亚洲精品WWW久久久久久| 亚洲中文字幕无码一区| 亚洲精品无码不卡| 亚洲AV一二三区成人影片| 亚洲国产欧洲综合997久久| 亚洲M码 欧洲S码SSS222| 久久九九亚洲精品|