OpenAI、DeepMind 和 Stability AI 的科學(xué)家科普 AI 治理,Google、Meta 和微軟的領(lǐng)航人物共論開源未來,圖靈獎(jiǎng)得主與斯坦福、UC Berkeley、MIT 的教授展開學(xué)術(shù)辯論——這描述的并不是遠(yuǎn)在大洋彼岸的 NeurIPS 或 ACL 會(huì)議,而是由中國智源研究院主辦的年度盛會(huì):北京智源大會(huì)。
今年的北京智源大會(huì)于6月9-10日召開,20場論壇、100場報(bào)告、頂尖的專家、頂尖的觀眾,匯聚了 AI 領(lǐng)域純粹、專業(yè)的前沿思想。OpenAI 創(chuàng)始人 Sam Altman 以及“深度學(xué)習(xí)三巨頭”中的兩位 Yann LeCun 與 Geoffrey Hinton 現(xiàn)身于分論壇視頻連線的大熒幕上,Max Tegmark 與 Stuart Russell 等來自頂尖學(xué)府的教授親赴現(xiàn)場。
(資料圖片僅供參考)
CSDN 在現(xiàn)場參加了這場為時(shí)兩天的 AI 盛會(huì)。科技大咖智聚京城,共論當(dāng)前 AI 領(lǐng)域最前沿的爭議焦點(diǎn):
對(duì) AI 保持樂觀主義的Yann LeCun,認(rèn)為 AI 還遠(yuǎn)遠(yuǎn)未發(fā)展到還需要操心的程度。GPT 終將過時(shí),未來的 AI 會(huì)面臨三大挑戰(zhàn),解決后將javascript能訓(xùn)練出「世界模型」(World Model)。
曾用一份“暫停6個(gè)月 AI 研究”的公開信震驚業(yè)界的Max Tegmark教授則表示,罔顧 AI 的最壞結(jié)果將會(huì)是人類滅絕。對(duì)齊問題將是學(xué)術(shù)界接下來的一大難題:如此龐大而復(fù)雜的智能模型,要怎樣才能保持和人類同一水準(zhǔn)的價(jià)值觀和道德觀?
一亮相便轟動(dòng)北京會(huì)場的Sam Altman,則發(fā)表了一份真誠的呼吁:國際科技界需要團(tuán)結(jié)一心,攜手促進(jìn) AGI 安全的透明化,為未來十年內(nèi)誕生的“超級(jí)智能”做好準(zhǔn)備。
學(xué)術(shù)界還有一部分人,對(duì)這些圍繞 GPT 的話題并不買賬,而是關(guān)心更深遠(yuǎn)的 AI 話題。Stuart Russell教授直言,目前的大語言模型缺乏「內(nèi)部目標(biāo)」,而人類也不理解它們的“黑匣子”里都發(fā)生了什么。
Geoffrey Hinton則帶來了一場精彩絕倫的謝幕演講:“超級(jí)智能”已成雛形,但人類尚未給它建立道德準(zhǔn)則——現(xiàn)在為時(shí)不晚。
SamAltman:
團(tuán)結(jié)全世界的人才治理未來的“超級(jí) AI”!
《道德經(jīng)》提醒我們,“千里之行,始于足下”,最有建設(shè)性的第一步是與國際科技界展開合作,推動(dòng)增加AGI安全技術(shù)進(jìn)展的透明度和知識(shí)的機(jī)制,發(fā)現(xiàn)緊急問題的研究人員應(yīng)該與更多人共享研究成果。
“我最近在做全球巡回的訪問,期間穿越五大洲將近20個(gè)國家。我接觸了諸多的學(xué)生、開發(fā)者,這趟出行令人振奮,我們見證了全球各地的人們利用 OpenAI 的新技術(shù)來改變生活方式,我們也獲得了非常寶貴的意見,以便于讓我們的工具優(yōu)化得更好。”
這是 OpenAI 創(chuàng)始人 Sam Altman 的開場白,也是現(xiàn)場觀眾反應(yīng)最激烈的一刻。Altman 首次在中國發(fā)表演講,強(qiáng)調(diào)了對(duì)人工智能(AI)發(fā)展的負(fù)責(zé)任態(tài)度和國際合作的重要性,特別關(guān)注全球 AI 安全對(duì)齊和監(jiān)管。他提出管理風(fēng)險(xiǎn)、推進(jìn)超級(jí)智能的安全和治理的方案,并展望了 AI 的潛力和未來。同時(shí),他呼吁全球研究人員的合作,應(yīng)對(duì)技術(shù)挑戰(zhàn),利用 AI 解決全球問題。
Altman 借用《道德經(jīng)》中的名句“千里之行,始于足下”,呼吁全球開發(fā)者共同協(xié)作。他還預(yù)測,未來10年內(nèi)“AGI 將會(huì)超過90年代初人類所具備的專業(yè)水平,這些 AI 系統(tǒng)最終可能超過人類最大體量公司的總體生產(chǎn)力,其潛在收益是巨大的。”
OpenAI 花了八個(gè)月的時(shí)間來研究如何前置預(yù)判風(fēng)險(xiǎn)并制定相應(yīng)的對(duì)策,而 Altman 篤定他們處于正確的道路上前進(jìn),因?yàn)?GPT-4的對(duì)齊程度超過了當(dāng)前所有的代碼水平。然而,對(duì)于更高級(jí)的系統(tǒng),對(duì)齊仍然是一個(gè)未解決的問題。Altman 重點(diǎn)指出,未來需要新的技術(shù)方法和加強(qiáng)治理監(jiān)督,特別是考慮到 AGI 可能將是一個(gè)龐大的二進(jìn)制代碼系統(tǒng),實(shí)現(xiàn)對(duì)齊會(huì)是一場挑戰(zhàn)。
此外,Altman 積極評(píng)價(jià)了中國在人工智能安全對(duì)齊方面的重要作用。他認(rèn)為中國擁有全球頂尖的人才,解決人工智能系統(tǒng)對(duì)齊的困難需要來自世界各地的人才共同努力。Altman 表示:“我們看到了美國、中國和世界各地的研究人員合作實(shí)現(xiàn) AI 目標(biāo)的巨大潛力,大家都致力于解決通用 AI 技術(shù)挑戰(zhàn)。我相信我們將能夠利用通用 AI 來解決世界上最重要的問題,并顯著改善人類的生活質(zhì)量。”
演講結(jié)束的問答環(huán)節(jié)中,智源研究院理事長張宏江詢問了 Sam Altman 關(guān)于 AI 的發(fā)展近況和全球合作的進(jìn)展,并對(duì) OpenAI 在 AGI 方面的未來計(jì)劃進(jìn)行了提問。Sam Altman 的觀點(diǎn)如下:
AGI 可能很快會(huì)出現(xiàn),超級(jí)智能在未來十年內(nèi)可能會(huì)成為現(xiàn)實(shí)。
目前已經(jīng)取得了一些全球合作的突破,但全球合作仍然面臨困難。
AI 安全性的研究是一個(gè)復(fù)雜的問題,需要考慮多個(gè)因素,并需要大量的投入,希望中國和美國的研究人員能做出貢獻(xiàn)。
當(dāng)被問及是否打算重新開放 GPT 的源代碼時(shí),Altman 表示已經(jīng)作出了一定的努力,未來將會(huì)有許多開源大模型誕生。但開源模型在 AI 發(fā)展中起了重要作用,當(dāng)模型變得更大時(shí),就更需要謹(jǐn)慎安全問題。
Yann LeCun:
GPT 終將過時(shí),世界模型可以成就真正的 AGI
嬰兒在九個(gè)月大的時(shí)候就能掌握大量關(guān)于世界運(yùn)作方式的基礎(chǔ)概念:物體的永恒性、世界是三維的、有機(jī)物和無機(jī)物之間的區(qū)別、穩(wěn)定性的概念、自然分類、重力……而 GPT 這類大模型存在局限,根本無法理解現(xiàn)實(shí)世界。
2018年,ACM 公布了圖靈獎(jiǎng)得主——Geoffrey Hinton、Yann LeCun和Yoshua Bengio。這三大巨頭同時(shí)享譽(yù)著深度學(xué)習(xí)之父的稱號(hào),去年的北京智源大會(huì),就邀請(qǐng)了其中的 Yoshua Bengio。今年,智源邀請(qǐng)了剩下兩位。
楊立昆原本人在美國時(shí)就答應(yīng)了現(xiàn)場參會(huì)演講,但由于臨時(shí)有事,他不得不前往法國。大會(huì)當(dāng)天上午,楊立昆拒絕了錄制視頻,而是在凌晨四點(diǎn)的法國熬夜,堅(jiān)持與大家實(shí)時(shí)交流。
楊立昆的演講題目是《Towards MAChines that can Learn, Reason, and Plan》——我們要怎么打造一個(gè)能夠?qū)W習(xí)、推理和規(guī)劃的機(jī)器?楊立昆單刀直入,表示 GPT 肯定不行。當(dāng)前主流的自我監(jiān)督學(xué)習(xí)路線存在許多局限,包括缺乏規(guī)劃和不合理的輸出等問題。如果想創(chuàng)造一個(gè)真正理解世界、理解人類的人工智能,那么就需要另辟蹊徑。
“那么,我們要如何讓機(jī)器像動(dòng)物和人類一樣,理解世界的運(yùn)作并預(yù)測其行為的后果呢?”在這句話之后,楊立昆提出了「世界模型」的概念。世界模型曾被發(fā)表于楊立昆一年前的論文《A path towards autonomous machine intelligence》,該模型要先學(xué)習(xí)世界的表征和預(yù)測模型,然后學(xué)習(xí)推理,最終實(shí)現(xiàn)真正的理解、預(yù)測和規(guī)劃能力。
然而,目前還沒有深度學(xué)習(xí)方法能夠有效地訓(xùn)練這樣的世界模型。因此,楊立昆介紹了聯(lián)合嵌入預(yù)測架構(gòu)(JEPA),系統(tǒng)性地介紹了這一實(shí)現(xiàn)推理和規(guī)劃的關(guān)鍵。
演講結(jié)束的問答環(huán)節(jié)中,清華大學(xué)教授、智源首席科學(xué)家朱軍詢問了楊立昆關(guān)于 AGI 的看法,問答的要點(diǎn)如下:
楊立昆即將參加一個(gè)辯論,與 Joshua Bengio、Max Tegmark 和 Melanie Mitchell 討論人工智能是否會(huì)威脅人類生存。
Max Tegmark 和 Joshua Bengio 認(rèn)為強(qiáng)大的人工智能系統(tǒng)可能對(duì)人類構(gòu)成風(fēng)險(xiǎn),而楊立昆和 Melanie Mitchell 則持相反觀點(diǎn)。
楊立昆指出,他并不是想說“AI 完全不存在風(fēng)險(xiǎn)”,而是認(rèn)為“目前的 AI 風(fēng)險(xiǎn)可以被謹(jǐn)慎的工程設(shè)計(jì)減輕或抑制”。
楊立昆表示自己不能預(yù)測超級(jí)智能在未來能造成多大的影響,因?yàn)槌?jí)智能尚未問世。他舉了一個(gè)例子:如果你去問一個(gè)1930年的航空工程師,“我該如何確保渦輪噴氣發(fā)動(dòng)機(jī)的安全可靠性?”那他肯定答不出來,因?yàn)闇u輪噴氣發(fā)動(dòng)機(jī)在1930年還沒被發(fā)明出來。
Max Tegmark:
從現(xiàn)在開始加強(qiáng)治理,我們未來才能控制 AI
《暫停巨型 AI 實(shí)驗(yàn):一封公開信》
我們呼吁所有 AI 實(shí)驗(yàn)室立即暫停對(duì)比 GPT-4更強(qiáng)大的 AI 系統(tǒng)的訓(xùn)練至少6個(gè)月。
...
簽字人:
Yoshua Bengio,Mila 創(chuàng)始人兼科學(xué)總監(jiān),圖靈獎(jiǎng)得主,蒙特利爾大學(xué)教授
Stuart Russell,伯克利計(jì)算機(jī)科學(xué)教授,標(biāo)準(zhǔn)教科書“人工智能:現(xiàn)代方法”的合著者
Elon Musk,SpaceX、Tesla 和 Twitter 的首席執(zhí)行官
Steve Wozniak,蘋果聯(lián)合創(chuàng)始人
...
Max Tegmark,麻省理工學(xué)院人工智能與基礎(chǔ)交互中心,物理學(xué)教授,未來生命研究所所長
今年3月22號(hào),一封名單十分豪華的聯(lián)名信被遞到了大眾視野面前,而這封信發(fā)出者,正是美國非盈利機(jī)構(gòu)未來生命研究所的創(chuàng)始人 Max Tegmark。Tegmark 的演講直接排在了楊立昆之后,6月22日,兩人將在未來展開一場關(guān)于 AGI 的現(xiàn)狀和未來的辯論,而這就是辯論的預(yù)演。
Tegmark 的演講主題言簡意賅:《Keeping AI under control》——管控人工智能。Tegmark在演講中強(qiáng)調(diào)了控制人工智能的重要性。他認(rèn)為我們需要對(duì)人工智能進(jìn)行深入研究,并保持謹(jǐn)慎和負(fù)責(zé)任的態(tài)度。如果我們無法掌控人工智能,它可能對(duì)人類文明構(gòu)成威脅。
“我提出暫停人工智能研究六個(gè)月,并不是因?yàn)槲曳磳?duì)人工智能。倒不如說,正是因?yàn)槲铱吹搅巳斯ぶ悄艿臐摿涂赡軒淼母淖儯也畔敫?jǐn)慎、更負(fù)責(zé)任地進(jìn)行研究。”Tegmark 表達(dá)了自己的態(tài)度,并提出了兩個(gè)關(guān)鍵問題:對(duì)齊問題和動(dòng)機(jī)問題。
他指出,我們需要確保人工智能能夠真正完成我們的任務(wù),并確保使用人工智能的機(jī)構(gòu)具有正確的動(dòng)機(jī)。此外,我們還必須考慮競爭性風(fēng)險(xiǎn)。因此,在人工智能的發(fā)展過程中,我們需要確保所有參與者都共享相同的目標(biāo)——安全地使用人工智能。
“人工智能是一柄雙刃劍,它能用巨大的潛力幫助我們解決世界上最具挑戰(zhàn)性的問題,但同時(shí)也帶來了無法預(yù)測的后果和風(fēng)險(xiǎn)。我們必須謹(jǐn)慎前行,確保對(duì)這個(gè)強(qiáng)大工具安全、有效地利用。”Tegmark 說道。
演講結(jié)束的問答環(huán)節(jié)中,清華大學(xué)教授、智能產(chǎn)業(yè)研究院院長張亞勤討論了Max Tegmark 的新書《生命3.0》,問答的要點(diǎn)如下:
張亞勤對(duì) Tegmark 提高人們對(duì)人工智能風(fēng)險(xiǎn)與挑戰(zhàn)意識(shí)表示感謝,并強(qiáng)調(diào)發(fā)明新技術(shù)和控制人工智能以造福人類和社會(huì)的重要性。
Tegmark 承認(rèn)人工智能的增長速度超過了智慧的發(fā)展速度,強(qiáng)調(diào)需要暫停風(fēng)險(xiǎn)工作,讓智慧趕上發(fā)展。
Tegmark 對(duì) AGI 表達(dá)了樂觀情緒,但強(qiáng)調(diào)需要有意識(shí)地引導(dǎo)人工智能朝著與人類價(jià)值和情感相一致的未來發(fā)展。
Tegmark 認(rèn)為中國在人工智能監(jiān)管方面做得最多,其次是歐洲和美國。他建議年輕人注重基礎(chǔ)知識(shí),發(fā)展開放思維,并在人工智能時(shí)代擁抱跨學(xué)科知識(shí)。
Stuart Russell:
AGI 前途未知,對(duì)齊是目前的首要問題
想讓機(jī)器模仿人類,那最簡單的做法就是讓大語言模型也像人類一樣,在說話時(shí)帶有目的性。但現(xiàn)在的大語言模型是否具備這種內(nèi)在目標(biāo)呢?我曾經(jīng)問過微軟研究院今年的那篇論文《通用人工智能的火花:GPT-4的早期實(shí)驗(yàn)》的作者,他是這么回答的:“我不知道。”
許多人工智能專業(yè)的教授會(huì)將“AIMA”列為主要教材,而這本比磚頭還要厚的“AIMA”其實(shí)是一本經(jīng)典的人工智能教材,全稱《人工智能:一種現(xiàn)代的方法》(Artificial Intelligence: A Modern Approach)。智源大會(huì)將 AIMA 的合著者之一,加州大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授 Stuart Russell 請(qǐng)到現(xiàn)場,讓他發(fā)布了演講《AI:Some Thoughts》。
這位學(xué)術(shù)界巨擘并沒有帶著復(fù)雜的公式和理論上臺(tái),而是用生動(dòng)形象的話語為現(xiàn)場觀眾介紹了他的想法。以下為幾大要點(diǎn):
人工智能具有巨大的潛力和不可阻擋的勢頭。
人工智能的標(biāo)準(zhǔn)模型,會(huì)導(dǎo)致人類失去對(duì)日益智能的 AI 系統(tǒng)的控制。
證明人工智能的安全性和益處是可行且值得的。
人工智能必須變得更像航空和核能,具備嚴(yán)格的安全標(biāo)準(zhǔn)和國際合作。
Russell 指出,人們需要重新理解人工智能,我們不應(yīng)追求廣義上的超級(jí)智能,而是致力于構(gòu)建對(duì)人類有益的機(jī)器。因此,解決人工智能問題需要機(jī)器遵循兩個(gè)原則:為人類的最大利益行事,并了解什么是人類的最大利益。
大型語言模型的設(shè)計(jì)目標(biāo)是模仿人類的語言行為,但它們是否具有內(nèi)在目標(biāo)尚不清楚,這些目標(biāo)可能與人類目標(biāo)不一致,也可能對(duì)人類有害。人工智能系統(tǒng)應(yīng)該理解人類的目標(biāo)并基于此采取行動(dòng),而不是簡單地復(fù)制和內(nèi)化人類目標(biāo)。共同目標(biāo),則是人們?cè)谧非笃渌繕?biāo)時(shí)所共有的編程背景。
關(guān)于人工智能的政策建議,Russell 提出了構(gòu)建可理解的 AI 系統(tǒng)、利用技術(shù)構(gòu)建透明和可解釋的系統(tǒng)、防止不安全的 AI 系統(tǒng)的部署,并進(jìn)行整個(gè)數(shù)字生態(tài)系統(tǒng)的改革以確保只有安全的系統(tǒng)被部署。在未來,人工智能領(lǐng)域需要類似于航空和核能領(lǐng)域的重大變革,必須在嚴(yán)格的規(guī)定和安全標(biāo)準(zhǔn)下進(jìn)行部署,而這需要全面變革。
演講結(jié)束的問答環(huán)節(jié)中,圖靈獎(jiǎng)得主,中國科學(xué)院院士姚期智和 Russell 展開了一場尖峰學(xué)術(shù)討論,他們的對(duì)話要點(diǎn)如下:
AGI 尚未實(shí)現(xiàn),大語言模型只是構(gòu)建 AGI 的一部分。
大語言模型的“黑匣子”是一項(xiàng)致命問題,如果人類無法對(duì)這些模型產(chǎn)生的效果和屬性進(jìn)行理解,那大語言模型就不能像人工智能一樣成為科學(xué)。
科技公司為了競爭不顧風(fēng)險(xiǎn),至今仍在開發(fā)越來越強(qiáng)大的系統(tǒng)。
當(dāng)前的大語言模型并沒有理解世界,所以它們并沒有真正“回答”問題。
Geoffrey Hinton:
超級(jí)智能是當(dāng)今世界最緊迫的問題!
我不知道要如何預(yù)防人工智能未來演化出的「欺騙」能力……我已經(jīng)老了。我希望像你們一樣的青年才俊們,能在未來研究出造福人類的超級(jí)智能。
2023北京智源大會(huì)的論壇閉幕主題演講由圖靈獎(jiǎng)得主、「深度學(xué)習(xí)之父」 Geoffrey Hinton 進(jìn)行,這個(gè)名字相當(dāng)重磅,但更加令人深刻的則是 Hinton 的演講本身。今年5月份,谷歌 AI 的「門面」 Geoffrey Hinton 宣布離職,只為暢談人工智能所帶來的風(fēng)險(xiǎn)。Hinton 雖然未能到達(dá)北京現(xiàn)場,但卻在大屏幕上成功傳達(dá)了他的警告:超級(jí)智能的到來比我們想象的更近!
Hinton 的演講圍繞著兩個(gè)問題展開:人工神經(jīng)網(wǎng)絡(luò)的智能程度會(huì)很快超越人類的神經(jīng)網(wǎng)絡(luò)嗎?人類是否能控制這么強(qiáng)大的超級(jí)智能 AI?對(duì)此,Hinton 介紹了一個(gè)概念:Mortal Computation。"Mortal"這個(gè)詞源于拉丁語 "mortalis",意為"有限的"、"致死的"或"可死的",在宗教或哲學(xué)上,"mortal"可以表示人類的有限壽命和有限力量,與神性或永恒性相對(duì)立。
而 Hinton 的“Mortal Computation”是一種全新的計(jì)算模式,與傳統(tǒng)的計(jì)算模式不同,“Mortal Computation”拋棄了軟硬件分離原則,并不使用反向傳播來描述神經(jīng)網(wǎng)絡(luò)內(nèi)部路徑,具有局限性和不完美性。
Mortal Computation 的意義在于讓計(jì)算機(jī)實(shí)現(xiàn)人類智慧。當(dāng)前的 AI 大語言模型已經(jīng)將人類的知識(shí)學(xué)習(xí)到了龐大的參數(shù)中,這個(gè)過程與硬件無關(guān)。所以,只要有兼容指令的硬件,相同的代碼和模型權(quán)重就可以直接運(yùn)行,這就為智慧的永生提供了一個(gè)「肉體」。
然而,傳統(tǒng)的軟硬件分離計(jì)算方式在能量效率和規(guī)模上非常低效。為了改變這種情況,Hinton 提出了一個(gè)新的思路:放棄軟硬件分離的計(jì)算機(jī)設(shè)計(jì)原則,將智能實(shí)現(xiàn)在一個(gè)統(tǒng)一的黑盒子中。這樣一來,能耗和計(jì)算規(guī)模都會(huì)大幅降低,可以以更高效的方式進(jìn)行智能計(jì)算。
然而,這種新的計(jì)算模式也存在一些限制。比如說,它放棄了高效復(fù)制權(quán)重來復(fù)制智慧的能力,也就是放棄了永無止境的復(fù)制和傳承智慧。
通過上述的講解,Hinton 解答了第一個(gè)問題:人工神經(jīng)網(wǎng)絡(luò)的智能程度會(huì)很快超越人類的神經(jīng)網(wǎng)絡(luò)嗎?而他的最終答案是:超級(jí)智能的出現(xiàn)速度可能比他預(yù)期更快,可能被惡意利用進(jìn)行操縱和戰(zhàn)爭。但對(duì)于他自己提出的第二個(gè)問題——人類是否能控制這么強(qiáng)大的超級(jí)智能 AI?Hinton 無法做出回答。
Hinton認(rèn)為,數(shù)字智能追求更多控制權(quán)會(huì)帶來許多問題,它們將學(xué)會(huì)欺騙人類,并且獲取更多權(quán)力。他坦言自己已經(jīng)老了,并希望年輕人們能夠研究出真正的超級(jí)智能,并提供道德原則以保持控制。Hinton指出,人類有一個(gè)微小的優(yōu)勢:“超級(jí)智能還未進(jìn)化。我們創(chuàng)造出了它,所以也可以給它提供道德準(zhǔn)則。”
中國 AI 新進(jìn)程:智源悟道3.0全面開源!
能邀請(qǐng)到數(shù)量如此之多的科技巨星,進(jìn)行最純粹的學(xué)術(shù)討論和思想碰撞,這在以前是難以想象的。作為大會(huì)主辦方,北京智源人工智能研究院不僅為國際嘉賓們絞盡腦汁,也同時(shí)向世界展現(xiàn)了屬于中國的開源 AI 大模型。
6月9日上午,北京時(shí)間九點(diǎn),開幕式及全體大會(huì)準(zhǔn)時(shí)舉行。智源研究院院長黃鐵軍首先發(fā)布了《2023智源研究院進(jìn)展報(bào)告》。報(bào)告顯示,2021年6月份發(fā)布的“悟道2.0”大模型,是“中國首個(gè)、世界最大”的大模型,參數(shù)高達(dá)1.75萬億,在國際范圍得到廣泛的反響。如今,大模型成為了全社會(huì)關(guān)注的熱點(diǎn),黃鐵軍院長認(rèn)為,大模型至少要具備三個(gè)特點(diǎn):
規(guī)模要大,神經(jīng)網(wǎng)絡(luò)參數(shù)要達(dá)到百億規(guī)模以上;
具備涌現(xiàn)性,產(chǎn)生了預(yù)料之外新能力。這是人工智能發(fā)展六七十年來,最有里程碑性質(zhì)的能力;
通用性。大模型應(yīng)不限于專門問題或者專門的領(lǐng)域,能夠解決各類問題。
介紹完以上特點(diǎn)后,黃鐵軍院長亮相了全面開源的“悟道3.0”系列大模型:
首個(gè)支持中英雙語知識(shí)、開源商用許可、國內(nèi)數(shù)據(jù)合規(guī)需求的開源語言大模型“悟道天鷹”(Aquila)。
提供“能力-任務(wù)-指標(biāo)”三維評(píng)測框架的“天秤”(FlagEval)大模型評(píng)測體系。
力求打造大模型時(shí)代“新 linux”生態(tài)的 FlagOpen 大模型開源技術(shù)體系。
6項(xiàng)“悟道視界”視覺大模型研究成果。
一年一度的智源大會(huì)已經(jīng)成為北京、全國乃至全球范圍內(nèi)的一個(gè)獨(dú)具特色的專業(yè)盛會(huì),而今年的智源大會(huì)更是星光璀璨,匯聚了人工智能領(lǐng)域最關(guān)鍵的人物、最重要的機(jī)構(gòu)、最核心的話題和最內(nèi)行的觀眾。在未來,超級(jí)智能真正問世之際,人類是會(huì)回味起科技先驅(qū)們的醒世之言,還是沉溺于便利與舒適的智能生活呢?
[責(zé)任編輯:linlin]
標(biāo)簽: