李彥宏:正式發(fā)布文心大模型4.0工具版
4月16日,百度創(chuàng)始人、董事長(zhǎng)兼首席執(zhí)行官李彥宏在Create 2024百度AI開發(fā)者大會(huì)上,正式發(fā)布文心大模型4.0的工具版。他表示:
“近幾個(gè)月來,文心大模型在代碼生成、代碼解釋、代碼優(yōu)化等通用能力方面實(shí)現(xiàn)了進(jìn)一步的顯著提升,達(dá)到國(guó)際領(lǐng)先水平。今天,我們正式發(fā)布文心大模型4.0的工具版?,F(xiàn)在,大家可以在工具版上,體驗(yàn)代碼解釋器功能,通過自然語言交互,就能實(shí)現(xiàn)對(duì)復(fù)雜數(shù)據(jù)和文件的處理與分析,還可以生成圖表或文件,能夠快速洞察數(shù)據(jù)中的特點(diǎn)、分析變化趨勢(shì)、為后續(xù)的決策提供高效和精準(zhǔn)的支撐?!?/p>
“文心一言從去年3月16日首發(fā),到今天是一年零一個(gè)月的時(shí)間。我們的用戶數(shù)突破了2億,每天API的調(diào)用量也突破了2億,服務(wù)客戶數(shù)或者說企業(yè)達(dá)到了8.5萬,利用千帆平臺(tái)開發(fā)的AI原生應(yīng)用數(shù)超過了19萬?!?
"文心大模型已經(jīng)成為了中國(guó)最領(lǐng)先、應(yīng)用最廣泛的AI基礎(chǔ)模型。不僅如此,相比一年前,文心大模型的算法訓(xùn)練效率提升到了原來的5.1倍,周均訓(xùn)練有效率達(dá)到98.8%,推理性能提升了105倍,推理的成本降到了原來的1%。也就是說,客戶原來一天調(diào)用1萬次,同樣成本之下,現(xiàn)在一天可以調(diào)用100萬次。"
同時(shí),李彥宏在Create 2024百度AI開發(fā)者大會(huì)上,分享了百度過去一年實(shí)踐出來的、開發(fā)AI原生應(yīng)用的具體思路和工具。他強(qiáng)調(diào):
"大語言模型本身并不直接創(chuàng)造價(jià)值,基于大模型開發(fā)出來的AI應(yīng)用才能滿足真實(shí)的市場(chǎng)需求。今天我想跟大家分享的是一些基于大模型開發(fā)AI原生應(yīng)用的具體思路和工具。這是我們百度根據(jù)過去一年的實(shí)踐,踩了無數(shù)的坑,交了高昂的學(xué)費(fèi)換來的。"
"第一是MoE。未來大型的AI原生應(yīng)用基本都是MoE的,這里所說的MoE不是一般的學(xué)術(shù)概念,而是大小模型的混用,不依賴一個(gè)模型來解決所有問題。
第二是小模型。小模型推理成本低,響應(yīng)速度快,在一些特定場(chǎng)景中,經(jīng)過精調(diào)后的小模型,它的使用效果可以媲美大模型。這就是我們發(fā)布ERNIE Speed,ERNIE Lite、ERNIE Tiny三個(gè)輕量模型的原因。我們通過大模型,壓縮蒸餾出來一個(gè)基礎(chǔ)模型,然后再用數(shù)據(jù)去訓(xùn)練,這比從頭開始訓(xùn)小模型,效果要好很多,比基于開源模型訓(xùn)出來的模型,效果更好,速度更快,成本更低。
第三是智能體。智能體是當(dāng)前非常熱的一個(gè)話題,隨著智能體能力的提升,會(huì)不斷催生出大量的AI原生應(yīng)用。智能體機(jī)制,包括理解、規(guī)劃、反思和進(jìn)化,它讓機(jī)器像人一樣思考和行動(dòng),可以自主完成復(fù)雜任務(wù),在環(huán)境中持續(xù)學(xué)習(xí)、實(shí)現(xiàn)自我迭代和自我進(jìn)化。在一些復(fù)雜系統(tǒng)中,我們還可以讓不同的智能體互動(dòng),相互協(xié)作,更高質(zhì)量地完成任務(wù)。這些智能體能力,我們已經(jīng)開發(fā)出來了,并且向開發(fā)者全面開放。"
2、電商號(hào)平臺(tái)僅提供信息存儲(chǔ)服務(wù),如發(fā)現(xiàn)文章、圖片等侵權(quán)行為,侵權(quán)責(zé)任由作者本人承擔(dān)。
3、如對(duì)本稿件有異議或投訴,請(qǐng)聯(lián)系:info@dsb.cn