每日經(jīng)濟新聞
      要聞

      每經(jīng)網(wǎng)首頁 > 要聞 > 正文

      OpenAI訓練數(shù)據(jù)從哪里來、與蘋果合作進展如何?“ChatGPT之母”最新回應

      每日經(jīng)濟新聞 2024-07-16 17:25:18

      每經(jīng)編輯|杜宇    每經(jīng)實習編輯|宋欣悅    

      7月9日,美國約翰·霍普金斯大學公布了對“ChatGPT之母”、OpenAI首席技術官米拉·穆拉蒂(Mira Murati)的采訪視頻。這場采訪時間是6月10日,訪談中,穆拉蒂不僅與主持人討論了OpenAI與Apple的合作伙伴關系,還深入探討了人工智能的潛在風險、數(shù)據(jù)隱私以及技術對社會的深遠影響

      • 核心要點

      1.關于“ChatGPT-5”

      下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍。

      2.關于AGI的預測

      在未來十年內,我們將有超強的AI系統(tǒng)。

      3.關于AI與教育

      如果教育能夠根據(jù)你的思維方式、文化規(guī)范和具體興趣進行定制,這將極大地擴展知識和創(chuàng)造力的水平。AI非常強大,能夠推動人類知識的進步,從而推動整個文明的進步。

      4.關于數(shù)據(jù)來源

      我們主要有三個數(shù)據(jù)來源:公開數(shù)據(jù)、與出版商的合作數(shù)據(jù)以及我們支付人力標注的特定數(shù)據(jù)。

      5.關于OpenAI與Apple的合作關系

      OpenAI的目標是讓人工智能來覆蓋盡可能多的用戶。OpenAI將在接下來的幾個月里與Apple密切合作。

      6.關于數(shù)據(jù)隱私

      對于OpenAI的用戶和客戶,我們不會在未經(jīng)允許的情況下使用他們的數(shù)據(jù)來訓練我們的模型。

      圖片來源:截圖于Youtube

       

      穆拉蒂表示,與Apple的合作是OpenAI的一個重要里程碑,目標是讓人工智能覆蓋更多用戶,通過在Apple設備上內置GPT技術,使用戶無需更換設備即可享受智能服務。她強調,接下來的幾個月里,OpenAI將與Apple密切合作,共同確定產(chǎn)品細節(jié),并在適當時機與公眾分享更多信息。

      在產(chǎn)品整合方面,穆拉蒂提到,希望將正在開發(fā)中的模型能力、多模態(tài)性和互動性引入Apple設備,這將是人工智能領域的一次重大突破。她認為,這種進步不僅限于模型能力的提升,還能讓信息傳遞和用戶互動變得更加豐富和自然。

      談及用戶數(shù)據(jù)隱私時,穆拉蒂明確表示,OpenAI不會在未經(jīng)用戶許可的情況下使用他們的數(shù)據(jù)來訓練模型,強調了隱私和信任在合作伙伴關系中的重要性。

      關于Sora的發(fā)布時間,穆拉蒂表示目前沒有公開發(fā)布的時間表,OpenAI正在與內容創(chuàng)作者合作,以識別如何使技術更加穩(wěn)定,并進行大量的安全工作。她認為,雖然Sora技術具有巨大的潛力,但其影響也很大,因此需要確保產(chǎn)品的適用性和安全性。

      圖片來源:截圖于Youtube

       

      穆拉蒂在訪談中也提到了AGI的預測,她認為AGI的定義會隨著技術的發(fā)展而不斷演變。她強調,評估人工智能的實際影響比單純評估技術進步更為重要。她還提到:“在未來十年內,我們將有超強的AI系統(tǒng)。

      穆拉蒂談到了圍繞OpenAI涉嫌在其人工智能模型中盜用斯嘉麗·約翰遜(Scarlett Johansson)的聲音的爭議,以及研究人員因擔心該公司將產(chǎn)品開發(fā)置于安全考慮之上而高調離職的問題。她強調OpenAI對人工智能開發(fā)和部署的承諾,同時承認需要提高透明度。

      面對員工對公司安全的擔憂,穆拉蒂回應稱OpenAI有許多安全團隊,并且公司非常重視安全問題。她提到,OpenAI從GPT-2時代就開始研究虛假信息問題,并一直非常開放地討論這些問題。

      穆拉蒂承認,ChatGPT因過于自由而受到批評,但她強調這種偏見是無意的,“我們一直非常注重減少模型行為中的偏見,我們正在努力減少這些偏見,”不過,穆拉蒂尚未說明有關補救措施的具體細節(jié)。

      對話還涉及了人工智能對教育的潛在影響,穆拉蒂表示:“如果教育能夠根據(jù)你的思維方式、文化規(guī)范和具體興趣進行定制,這將極大地擴展知識和創(chuàng)造力的水平。”穆拉蒂認為AI對教育的影響是巨大的,“能推動人類知識的進步,從而推動整個文明的進步”。

      圖片來源:截圖于Youtube

       

      • 以下米拉·穆拉蒂與主持人對話以及觀眾問答環(huán)節(jié)的節(jié)選:

      主持人:

      首先,我很想問你關于與Apple合作的事。我們今天要談論一點這個話題。這個合作是在世界開發(fā)者大會上與OpenAI達成的。從今年某個時候開始,Apple的電腦、手機和iPad將內置GPT,這顯然是一個巨大的事件。

      Apple是第一次做這樣的事情,他們與許多人進行了談判,可能會逐步包括其他人。我想從你的角度談談這個合作是如何運作的。我今天早些時候和蒂姆·庫克(Tim Cook)聊了一下他的觀點,現(xiàn)在我想聽聽你的看法。

      米拉·穆拉蒂:

      這是我們的一項重要里程碑。Apple是一家標志性的消費產(chǎn)品公司。我們的目標是讓人工智能來覆蓋盡可能多的用戶。這是一個將ChatGPT帶給所有Apple用戶的絕佳機會,無需更換設備。我們將在接下來的幾個月里與他們密切合作,弄清楚產(chǎn)品方面的具體細節(jié),到時候會和大家分享更多的內容。

      主持人:

      如果你不介意的話,我們來聊一些更加具體的內容。你目前具體在做什么?Apple顯然需要改進Siri,因為它非常糟糕。從你的角度來看,你希望在與Apple的合作中實現(xiàn)什么目標?

      米拉·穆拉蒂:

      我可以具體談談產(chǎn)品整合的內容。我們希望帶來的是真正開發(fā)中的模型的能力、多模態(tài)性和互動性,并將這些引入Apple設備。

      這是我們在人工智能領域的一次重大突破,特別是在模型與用戶之間的交互方式以及模型所展現(xiàn)出的多樣化功能上,實現(xiàn)了前所未有的飛躍。這種進步不僅僅局限于模型能力的提升。

      這非常有意義,因為迄今為止,我們與設備的互動主要還是通過文本。而現(xiàn)在,這是一個極好的機會,能讓信息的傳遞和我們之間的互動變得更加豐富和自然,同時也極大地減少了互動過程中的限制

      主持人:

      當用戶向OpenAI發(fā)送請求時,這些請求信息不會被保存下來,同時用戶的IP地址也會被隱藏。這對于Apple用戶來說,無疑是一個重要的好消息。那么,這個過程是如何運作的呢?你們是否仍然可以使用這些請求的數(shù)據(jù)來訓練你的模型?

      米拉·穆拉蒂:

      不會的。對于我們的用戶和客戶,我們不會在未經(jīng)允許的情況下使用他們的數(shù)據(jù)來訓練我們的模型

      主持人:

      那么,在與像Apple這樣重視品牌聲譽的企業(yè)合作時,他們最為看重并關心的問題有哪些呢?其中一項尤為關鍵的是,這些信息會被如何處理和利用,即關于數(shù)據(jù)流向及用途的擔憂。

      米拉·穆拉蒂:

      我認為這是一個非常一致的合作伙伴關系。隱私和信任是關鍵,OpenAI的使命是確保我們構建和部署的技術讓人們感到信任和有參與感。因此,這種合作關系是非常自然的,并且引領我們朝著期望的目標邁進。

      關于虛假信息的問題,這顯然是非常復雜的。我認為這將是一個循序漸進的過程,我們需要不斷嘗試,隨著時間推移慢慢調整。

      主持人:

      我知道與Apple合作必須嚴謹無誤,因為一旦出錯,后果可能相當棘手。我很好奇這次合作是如何開始的?是山姆和庫克之間的一次對話促成的嗎?還是你也參與其中了呢?

      米拉·穆拉蒂:

      其實我不太記得是什么時候開始的,但已經(jīng)醞釀了一段時間。

      主持人:

      你也在與其他公司進行類似的合作談判。OpenAI已經(jīng)與新聞集團和Vox Media等公司達成了內容許可協(xié)議,這樣就減少了潛在的訴訟問題。要是我的話,我可能不會考慮這種合作。

      那么,你打算怎么說服我,讓我同意你們使用我的信息呢?

      米拉·穆拉蒂:

      我知道你對此很關心,我可以告訴你我們如何看待數(shù)據(jù)訓練模型的問題。我們主要有三個數(shù)據(jù)來源:公開數(shù)據(jù)、與出版商的合作數(shù)據(jù)以及我們支付人力標注的特定數(shù)據(jù)。

      此外,我們還有用戶自愿允許我們使用的數(shù)據(jù)。關于出版商合作,我們關心的是信息的準確性,用戶也非常重視這一點。

      因此,我們與特定產(chǎn)品建立了一對一的合作關系,提供對用戶有價值的信息,同時也在探索不同的方式來補償內容創(chuàng)作者,讓他們的數(shù)據(jù)在產(chǎn)品中展示或用于訓練。

      觀眾:

      我是斯坦福大學計算機科學教授,也是斯坦福人類中心AI研究所的聯(lián)合創(chuàng)始人。我想問你一個關于數(shù)據(jù)的問題。很多人認為OpenAI的成功與數(shù)據(jù)密切相關。我們了解到你的公司從互聯(lián)網(wǎng)和其他來源獲得了大量數(shù)據(jù)。

      那么你認為數(shù)據(jù)與模型之間的關系是什么?是否簡單地認為輸入的數(shù)據(jù)越多,模型就越強大?還是需要花費大量時間來整理不同類型的數(shù)據(jù)以使模型有效?最后,你如何解決對大量人類生成數(shù)據(jù)的需求與這些數(shù)據(jù)的所有權和權利問題?

      米拉·穆拉蒂:

      關于數(shù)據(jù)和模型之間的關系,這其實是很多人對AI模型,特別是大型語言模型的誤解。開發(fā)這些模型的人并不是預先編程它們做特定的事情,而是輸入大量數(shù)據(jù)。

      理解這一點非常重要,因為它展示了大型語言模型的工作方式,結合神經(jīng)網(wǎng)絡架構、大量數(shù)據(jù)和計算能力,產(chǎn)生了驚人的智能,并且隨著數(shù)據(jù)和計算能力的增加,這種能力會不斷提升。

      當然,我們需要做大量工作來使這些數(shù)據(jù)可供模型使用。但這就是它的基本結構。我們正在考慮如何提供透明度以了解模型行為的工作原理。我們有一些工具可以讓人們對使用這些模型有信心,并讓他們有參與感。

      主持人:

      我覺得大家困惑的點在于,模型訓練過程中到底用了哪些內容,又排除了哪些。我記得在三月份,你接受了《華爾街日報》喬安妮·斯特恩(Joanne Stern)的采訪,她問你是否使用了YouTube、Instagram和Facebook的視頻來訓練Sora(OpenAI旗下一款文生視頻模型),你當時回答說不知道。那么,關于是否使用了這些數(shù)據(jù),你真的不清楚嗎?

      米拉·穆拉蒂:

      我當時沒有很好地回答這個問題,現(xiàn)在我可以回答一下。我不能具體告訴你數(shù)據(jù)的來源,但數(shù)據(jù)來自這三類:公開數(shù)據(jù)、我們通過許可和與內容提供商達成的交易支付的數(shù)據(jù),以及用戶數(shù)據(jù)。

      我不能告訴你具體的來源,因為這是商業(yè)機密,幫助我們保持競爭力。但我可以告訴你數(shù)據(jù)的類別,它們是我之前提到的那幾種。

      主持人:

      唯一的區(qū)別是復雜性。因為他們基本上是在快速抓取內容,而沒有給出內容來源,任何媒體公司都會對此感到擔憂。

      米拉·穆拉蒂:

      是的,我們希望確保尊重內容創(chuàng)作者,并正在嘗試補償他們。我們正在開發(fā)一個工具,稱為內容媒體管理器,這將讓我們更具體地識別數(shù)據(jù)的類型,就像唱片公司所做的那樣。

      主持人:

      這在過去是可以做到的。所以這并不是不可能的事情。說到Sora,本周阿什頓·庫徹(Ashton Kutcher,好萊塢著名演員)告訴埃里克·施密特(Eric Schmidt,前谷歌CEO),他有一個測試版的Sora,非常驚人。

      他還提到,這會讓門檻變得更高,因為人們可能會想:“我為什么要看你的電影,而不直接看我腦海里的電影呢?”他的意思是,人們有能力在腦海中構想電影情節(jié),而AI能將這種構想轉化為可觀看的電影。雖然現(xiàn)在聽起來還有些粗糙,但這種想法是否有可能實現(xiàn)呢?

      那么,Sora這款應用大概什么時候會準備好,向公眾發(fā)布呢?

      米拉·穆拉蒂:

      我們目前沒有Sora公開發(fā)布的時間表。我們現(xiàn)在正在與一些內容創(chuàng)作者合作,幫助我們識別如何使其更加穩(wěn)定。我們正在進行大量的安全工作,但也在研究如何以有用的方式向公眾推出這項技術。這并不是一件簡單的事情。

      現(xiàn)在它更多的是一種技術。我們通常會與那些在特定領域有專長的人合作,就像我們最初與DALL·E合作時一樣,他們幫助我們識別出一種感覺更有能力的界面,可以創(chuàng)造更多的項目。基本上來講,我們想擴展Sora的創(chuàng)造力。

      主持人:

      關于影響,科技公司往往不關心影響,通常他們會發(fā)布一個測試版的軟件。如果他們發(fā)布的是一輛車,這種情況是絕不會允許發(fā)生的,因為他們會被起訴到破產(chǎn)。

      但很多科技公司發(fā)布的產(chǎn)品往往都是測試版,并強加給公眾。關于影響這一概念,你是否覺得作為首席技術官,即使你不能預見所有的影響,你是否尊重每項發(fā)明可能帶來的影響?

      米拉·穆拉蒂:

      這些影響會對我們和我們的社會產(chǎn)生影響。因此,我并不一定指的是監(jiān)管或法律方面的影響,而是道德上的責任感,確保我們做對。我對這項技術充滿樂觀。

      它將允許我們做出驚人的事情。我對它在科學、教育和特別是醫(yī)療方面的潛力感到非常興奮。但每當你有如此強大的東西,也會有潛在的災難性風險。一直以來,都是這樣的情況。人類試圖放大其影響。

      主持人:

      我引用的一句話來自保羅·維利里奧(Paul Virilio):“當你發(fā)明了船時,你也發(fā)明了船難。”這是比船難更嚴重的可能性,對嗎?

      米拉·穆拉蒂:

      我不同意這個說法。我的專業(yè)是工程學。我們的整個世界都是通過工程建造的。工程學就是風險。整個文明建立在工程實踐之上。我們的城市、橋梁,一切都如此。這總是伴隨著風險的。你通過責任和細致的工作來管理這些風險。

      這不僅僅是開發(fā)人員的責任。這是一種共同的責任。為了使其成為共同責任,你實際上需要給人們提供訪問權限和工具,并與他們一起前進,而不是在真空中建造不可訪問的技術。

      主持人:

      我想多了解一下這個話題。你上個月宣布了ChatGPT-4的迭代更新。它是免費的,對吧?

      米拉·穆拉蒂:

      確實如此。GPT-4o代表的是Omni-model,因為它結合了所有的模態(tài):視覺、文本、音頻。這個模型的特別之處在于,它使與模型的互動變得非常流暢自然,幾乎察覺不到延遲。

      這是AI互動上的巨大飛躍,與我們之前的版本有很大不同。我們希望將最新的功能免費提供給所有用戶,讓大家了解這項技術的潛力和局限性。正如我之前所說,通過實際體驗,大家更容易理解技術的潛力和局限性。

      主持人:

      它就像是一道開胃菜,讓大家期待ChatGPT-5。那么,ChatGPT-5有什么不同?是個巨大的飛躍還是逐步改進?

      米拉·穆拉蒂:

      我們還不知道。其實我們還沒決定叫什么名字。下一代大模型將非常強大,我們可以期待像從GPT-3到GPT-4那樣的巨大飛躍,但具體細節(jié)還不確定。

      主持人:

      顯然,你參與了很多項目,我們也聊過很多。OpenAI內部的路線圖預測,人類會在2027年實現(xiàn)AGI,這將是一個巨大的里程碑。解釋一下這個時間點的重要性。你們是否真的認為會在那時實現(xiàn)AGI?

      米拉·穆拉蒂:

      AGI的定義因人而異。根據(jù)我們的章程,AGI是指在不同領域可以完成經(jīng)濟上有價值工作的系統(tǒng)。從我們目前看到的情況來看,智能的定義不斷變化。過去,我們用學術基準測試系統(tǒng)的智能程度。然后,我們看考試成績。

      當我們達到了這些基準,我們需要提出新的評估標準。這讓我們思考,在工作環(huán)境中如何評估智能?我們有面試、有實習等方式。因此,我預計這個定義會不斷演變。或許更重要的是評估和預測在現(xiàn)實世界中的影響,無論是社會影響還是經(jīng)濟影響。

      主持人:

      根據(jù)這個定義,OpenAI認為何時會實現(xiàn)AGI?2027年這個數(shù)字準確嗎?

      米拉·穆拉蒂:

      我會說,在未來十年內,我們將有超強的AI系統(tǒng)

      主持人:

      但是人們擔心的是安全與產(chǎn)品之間的討論。OpenAI的創(chuàng)立有兩個目標,一個是幫助人類,一個是追求巨大的經(jīng)濟利益。我認為你可能介于兩者之間。

      上周,13名現(xiàn)任和前任OpenAI和谷歌DeepMind員工聯(lián)名發(fā)表公開信,呼吁公司允許他們警告關于先進AI的風險。這并不新鮮,F(xiàn)acebook、谷歌和微軟的員工也曾簽署公開信,無論是與高級部門合作等。

      但在這個案例中,員工們說,“廣泛的保密協(xié)議阻止我們表達擔憂,而公司可能未能解決這些問題。”基本上就是說,我們不能告訴你風險是什么,但大家可能會遭遇災難。對此你有什么回應?人們擔心遭到報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。

      米拉·穆拉蒂:

      當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自OpenAI成立以來,我們一直非常開放地討論虛假信息問題,從GPT-2時代開始,這就是我們早期研究的問題之一。

      過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發(fā)展方向,所以可以理解人們對未來的擔憂。

      具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。

      主持人:

      你提到過這些問題。我好奇的是,為什么OpenAI需要簽訂保密協(xié)議,以及實施比其他公司更嚴格的規(guī)定呢?公開信是在一系列高調離職后發(fā)布的,包括楊·萊克(Jan Leike)和伊爾亞·蘇茨克維(Ilya Sutskever)。他們領導了對齊團隊,負責安全工作。

      伊爾亞是OpenAI的聯(lián)合創(chuàng)始人,他與其他三位董事一起罷免了CEO,但萊克在X上發(fā)布了這條消息:“在過去的一年里,安全文化和流程被光鮮的新產(chǎn)品所取代了。”

      這是外界對OpenAI持續(xù)不斷的批評之一。你認為這個批評公正嗎?為什么?如果你確實非常重視安全,但外界卻認為你不夠重視,你會如何回應這樣的批評呢?

      米拉·穆拉蒂:

      首先,對齊團隊不是唯一負責安全的團隊。OpenAI有許多安全團隊,對齊團隊是其中一個非常重要的安全團隊,但只是其中之一。

      我們有很多人在OpenAI從事安全工作,我可以稍后詳細解釋。萊克是一位了不起的研究人員和同事,我與他共事了三年,非常尊重他,他離開OpenAI后加入了Anthropic,這是我們的一個競爭對手。

      我認為我們確實需要更加專注于安全、保護和監(jiān)管參與,鑒于我們預期領域內的進展。但我不同意我們可能將產(chǎn)品放在安全之前的觀點。你為什么認為他們這么說?

      主持人:

      因為這些是和你共事的人?

      米拉·穆拉蒂:

      我認為你需要問他們,但我認為許多人認為安全和能力是分開的。我認為整個行業(yè)需要向更加嚴格的安全學科發(fā)展。我們有安全系統(tǒng),有嚴格的操作安全紀律,這包括許多方面,不僅是操作紀律,還有我們今天產(chǎn)品和部署的安全性,例如有害偏見、虛假信息、錯誤信息分類器等。

      主持人:

      但這在OpenAI中一直存在。我認為因為你們是當前的領先公司,所以這個問題更加突出。但人們擔心的是安全問題,OpenAI的創(chuàng)立目的之一就是確保安全。

      上周,有13名現(xiàn)任和前任OpenAI和谷歌DeepMind員工聯(lián)名發(fā)表公開信,呼吁公司允許他們警告關于先進AI的風險。這并不新鮮,但在這種情況下,員工們說,“廣泛的保密協(xié)議阻止我們表達擔憂,而公司可能未能解決這些問題。”

      你對此有什么回應?人們擔心發(fā)聲會遭到報復,而我不想談論股票的問題,因為我知道你們道歉并糾正了這一點。但如果他們有擔憂,難道不應該讓他們表達嗎?我知道不同人有不同的看法。

      米拉·穆拉蒂:

      當然,我們認為持不同觀點非常重要,能夠公開表達這些擔憂并討論安全問題也非常重要。自OpenAI成立以來,我們一直非常開放地討論虛假信息的問題,從GPT-2時代開始,這就是我們早期研究的問題之一。

      過去幾年,技術進步令人難以置信,速度之快超乎預期,這也增加了人們對社會準備情況的普遍焦慮。我們看到科學的發(fā)展方向,所以可以理解人們對未來的擔憂。

      具體來說,我們在OpenAI所做的工作和部署這些模型的方式,我認為我們有一支出色的團隊,我們非常安全地部署了這些模型,我對此感到非常自豪。鑒于技術進步的速度和我們自身的進展,專注于安全、保護框架非常重要,我們需要考慮如何看待前沿模型訓練和部署的風險。

      主持人:

      對于這種情況,你打算如何應對呢?我能理解這種變化,畢竟在谷歌、微軟和亞馬遜的早期階段都經(jīng)歷過類似的情況。隨著公司的成長,很多事情都會發(fā)生變化。谷歌早期也是一團亂麻,F(xiàn)acebook也換過不少首席運營官,多得我都數(shù)不清了。很多人都經(jīng)歷過這樣的階段,所以這是很正常的。但對于山姆這種情況,你打算如何應對呢?

      例如,他投資了一些外國公司,一些公司與OpenAI有業(yè)務往來。他投資了3.75億美元在一家名為Helion的能源公司,這是一個很酷的公司,他們目前正在與OpenAI談論大量的電力需求。眾所周知,計算需要大量電力。你每天是如何與他打交道的?你如何看待這種關系?你在哪些方面會提出反對意見?

      米拉·穆拉蒂:

      我一直在提出反對意見。我認為這是正常的,特別是在我們所做的工作中。山姆會對團隊提出很高的要求,我認為這是好的。有遠大的抱負,挑戰(zhàn)我們的極限是很重要的。當我覺得事情超出界限時,我會提出反對意見。這就是我們六年來的合作關系,我認為這種關系是有成效的。你需要能夠提出反對意見。

      主持人:

      你能舉一個例子嗎?比如,斯嘉麗·約翰遜的例子。我知道你和山姆在ChatGPT的音色這塊工作上,是合作完成的,對吧?

      米拉·穆拉蒂:

      是的,我們有很強的合作關系。但選擇聲音并不是我們的優(yōu)先事項之一,不是我們共同工作的內容。我在這方面做了決策,但有山姆他自己的聯(lián)系。在我選擇了Sky之后,他聯(lián)系了斯嘉麗·約翰遜。我們沒有討論這個具體的決定,這是很不幸的。

      主持人:

      所以他是單獨行動的。

      米拉·穆拉蒂:

      他有自己的聯(lián)系,我們在這件事上沒有完全協(xié)調一致。

      主持人:

      你覺得這在很多方面很有趣,特別是因為電影和他的推文。但我認為這是OpenAI的一個錯誤,因為人們會覺得你們在偷竊,即使你們沒有偷她的聲音,山姆看起來就像是《小美人魚》里的烏蘇拉,偷走了她的聲音。即使事實并非如此,但這種感覺是存在的。

      那么,讓我最后談談選舉和虛假信息,然后我們會接受觀眾的提問。當你考慮到AI對虛假信息的力量和即將到來的總統(tǒng)選舉時,是什么讓你感到擔憂?從你的角度來看,最糟糕的情況和最可能的負面結果是什么?

      米拉·穆拉蒂:

      首先,我們盡可能防止AI的濫用,包括提高信息檢測的準確性,了解平臺上的情況并迅速采取行動。第二是減少模型中的偏見因素。盡管ChatGPT因過于自由而受到批評,但這并非我們的本意,我們正不遺余力地降低模型中的偏見因素,并將持續(xù)努力。第三是我們希望在選民尋找投票信息時,模型可以指向正確的信息。這是我們在選舉時關注的三件事。

      關于虛假信息,編造信息是不可接受的。我們需要有非常可靠的方法讓人們了解他們在看的是編造的信息。我們已經(jīng)做了一些事情。我們?yōu)閳D像實施了C2PA,它類似于護照,隨著內容在不同平臺上傳播。我們還開放了DALL·E的分類器,可以檢測圖像是否由DALL·E生成。

      元數(shù)據(jù)和分類器是處理這個問題的兩種技術方法。這是信息來源的證明,專門針對圖像。我們還在研究如何在文本中實現(xiàn)水印技術。

      主持人:

      我再問你一個最后的問題,然后我們會接受觀眾提問。你今天得到了這個問題的不同版本。你對這項技術非常樂觀,但我想讓你總結一下。如果你是個悲觀主義者,甚至有公司說如果我不阻止山姆·阿爾特曼,他會毀滅人類,我覺得這有點夸張。

      而其他人則認為,無論如何,這將是最好的事情,我們都會在火星上享受美味的士力架。所以我希望你能告訴我,你最擔心的事情和最希望的事情,然后我們會接受觀眾提問。

      米拉·穆拉蒂:

      首先,我不認為這是一個預定的結果。我認為我們在構建和部署這項技術方面有很大的自主權。為了做好這件事,我們需要找到一種創(chuàng)造共同責任的方法。

      我們今天談論了很多這個問題,我確實認為控制人們做特定的事情,是非常非常可怕的,意味著你可以控制社會朝特定方向發(fā)展。

      就希望而言,我非常興奮的一件事是能夠在任何地方提供高質量和免費的教育。對我來說,教育非常重要,它改變了我的生活。

      今天我們有這么多工具可用,比如電和互聯(lián)網(wǎng),很多工具都是可用的。但大多數(shù)人仍然是這種狀況——在一個教室里有一個老師,50個學生,每個人都學同樣的東西。想象一下,如果教育能夠根據(jù)你的思維方式、文化規(guī)范和具體興趣進行定制,這將極大地擴展知識和創(chuàng)造力的水平。

      如果我們能夠真正掌握這個,在很年輕的時候就學會如何學習,我認為這非常強大,并能推動人類知識的進步,從而推動整個文明的進步。

      觀眾:

      ChatGPT的模型截止到2021年9月,你們依賴網(wǎng)絡搜索來補充數(shù)據(jù)。我輸入一個搜索請求時,確保你們從正確的參考資料中獲取正確答案?由于你們授權的受信任來源是商業(yè)秘密,我們如何知道你們提供的信息是正確的?

      米拉·穆拉蒂:

      實際上,有趣的是,ChatGPT項目最初是一個關于真實性的研究項目。我們希望能夠表達不確定性,并希望能夠在大型語言模型中引用信息,然后它轉變成了不同的研究項目。

      所以,我們今天在平臺上所做的事情,我們有瀏覽器和工具,我們引入了工具和瀏覽功能,可以查找內容,我們也在與出版商合作,以便將新聞和額外內容帶到平臺上,提高準確性。

      我們正在著力解決大模型編造虛假信息的問題,這顯然是大型語言模型的一個主要問題,但其出現(xiàn)的頻率正在逐步降低。我認為這類問題不會徹底消失,但隨著模型變得更聰明,我們有理由相信它們的表現(xiàn)會越來越好,我們應該期待它們輸出的內容也會更加貼近真實情況,不會編造虛假信息。虛假信息問題非常復雜,我們正在努力探索解決之道,以確保信息的真實性和準確性。

      我們希望信息來源盡可能廣泛,同時還需要考慮產(chǎn)品的應用場景,不同的應用場景會有所不同。

      每日經(jīng)濟新聞綜合自公開消息

      如需轉載請與《每日經(jīng)濟新聞》報社聯(lián)系。
      未經(jīng)《每日經(jīng)濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。

      讀者熱線:4008890008

      特別提醒:如果我們使用了您的圖片,請作者與本站聯(lián)系索取稿酬。如您不希望作品出現(xiàn)在本站,可聯(lián)系我們要求撤下您的作品。

      Ai 模型 GPT

      歡迎關注每日經(jīng)濟新聞APP

      每經(jīng)經(jīng)濟新聞官方APP

      0

      0

      亚洲精品女同中文字幕| 亚洲蜜芽在线精品一区| 亚洲日韩国产精品乱-久| 亚洲欧洲日产v特级毛片| 精品亚洲成a人片在线观看| 亚洲国产精品免费视频| 亚洲国产精品lv| 亚洲国产精品线在线观看| 亚洲AV无码久久精品色欲| 亚洲av无码无在线观看红杏| 久久亚洲精品中文字幕三区| 亚洲国产成人一区二区三区| 无码久久精品国产亚洲Av影片| 亚洲国产精品成人精品无码区| 亚洲国产AV无码专区亚洲AV| 亚洲国产第一站精品蜜芽| 亚洲第一福利网站| 亚洲AV日韩AV天堂一区二区三区 | 久久精品国产亚洲综合色| 亚洲中文字幕在线第六区| 国产亚洲婷婷香蕉久久精品 | 亚洲综合色婷婷在线观看| 亚洲人成自拍网站在线观看| 亚洲精品国产高清在线观看| 久久亚洲精品成人无码| 亚洲黄片手机免费观看| 中文字幕在线亚洲精品| 亚洲国产精品无码久久久蜜芽| 老司机亚洲精品影院无码| 亚洲电影在线免费观看| 四虎亚洲精品高清在线观看| 国产亚洲一卡2卡3卡4卡新区| 亚洲国产精品国产自在在线| 亚洲自偷自偷偷色无码中文| 亚洲精品成人av在线| 亚洲成a人片在线观看中文app| 亚洲乱码在线卡一卡二卡新区| 亚洲AV无码成人精品区日韩| 亚洲午夜成人精品电影在线观看| 亚洲午夜久久久久妓女影院| 久久精品国产亚洲av日韩 |