人妻夜夜爽天天爽三区麻豆AV网站,亚洲AV成人一区二区三区天堂,欧美人与动牲交欧美精品,亚洲AV无码一区东京热久久

字節(jié)的野心:做大模型時代的“軍火商”

字節(jié)跳動謹(jǐn)慎邁出了跨入大模型賽道的第一步。

6 月 28 日下午,字節(jié)旗下的火山引擎召開發(fā)布會,首次正式公布在大模型領(lǐng)域的研發(fā)布局和合作進(jìn)展,并發(fā)布大模型服務(wù)平臺火山方舟,提供模型訓(xùn)練、推理、評測、精調(diào)等全方位功能與服務(wù)。


【資料圖】

此前,百度、阿里、騰訊、商湯、360 等國內(nèi)大廠已經(jīng)相繼宣布入局,大部分的做法都是發(fā)布一個通用大模型或者數(shù)個行業(yè)大模型底座,行業(yè)客戶可以基于這些基礎(chǔ)模型和自身擁有的行業(yè)數(shù)據(jù)精調(diào),打造一個服務(wù)自身業(yè)務(wù)的 AI 應(yīng)用。

但字節(jié)的切入方式與其他大廠有明顯的不同。火山?jīng)]有發(fā)布自己的通用大模型或者行業(yè)大模型,火山方舟聚合了一批第三方生產(chǎn)商開發(fā)的大模型底座。

火山引擎向大模型生產(chǎn)商提供構(gòu)建、訓(xùn)練大模型基座所必須的算力和工具體系,并將這些生產(chǎn)商的大模型聚集到自己的 MaaS 平臺,供應(yīng)給企業(yè)使用。這與微軟投資算力供給 OpenAI,并基于后者開發(fā)的 GPT 模型向企業(yè)提供 Azure AI 云服務(wù),有相似之處。

因此,火山引擎介紹的合作案例也與其他大廠有所差異。這場發(fā)布會上登臺的合作伙伴,包括英偉達(dá)這樣的上游顯卡供應(yīng)商,以及智譜 AI、百川智能、IDEA 等當(dāng)下國內(nèi)第一梯隊的大模型開發(fā)商。而其他大廠的發(fā)布會,介紹的往往主要是金融、文旅、企服等各行各業(yè)的合作伙伴。

火山引擎總裁 譚待

截至今年 5 月,國內(nèi)已公開披露的大模型數(shù)量達(dá)到 79 個。按照火山引擎總裁譚待的說法,未來大模型市場一定不會是一家或者幾個寡頭壟斷,而是一個百花齊放的多模型市場,會有少數(shù)幾個超級大模型,多個通用大模型,和更多行業(yè)/垂直大模型。

企業(yè)使用大模型,未來也會呈現(xiàn)「1+N」的模式,除了通過自研或深度合作,形成 1 個主力模型;由于成本和場景復(fù)雜多元等原因,在這個主力模型之外,還會有 N 個模型同時應(yīng)用。

大模型開啟了新一輪行業(yè)變革,在這個淘金時代,OpenAI、谷歌、MiniMax、百川智能等大模型生產(chǎn)商是時代浪尖的淘金者。而火山引擎要做的,就是要在大模型時代「賣鏟子」。

01?火山引擎大模型?服務(wù)平臺——火山方舟

會上,火山引擎發(fā)布了自己的 MaaS 平臺——火山方舟。

火山引擎總裁譚待在會后接受媒體采訪時強(qiáng)調(diào):火山方舟最終服務(wù)的是模型的應(yīng)用方;火山引擎是跟大模型的生產(chǎn)方合作,一部分被精選的大模型廠商在火山方舟上部署,然后對外提供服務(wù)。

想讓企業(yè)用戶和大模型生產(chǎn)商加入到火山方舟的生態(tài)體系,首先要解決的是數(shù)據(jù)安全的問題。

火山引擎總裁譚待認(rèn)為,企業(yè)使用大模型,最擔(dān)心的是數(shù)據(jù)泄露;如果將大模型私有化部署,企業(yè)將承擔(dān)更高的成本,模型生產(chǎn)方也會擔(dān)心知識資產(chǎn)安全?!富鹕椒街邸沟氖滓蝿?wù),就是做好大模型使用者、提供者和云平臺可以互相信任的安全保障。

據(jù)火山引擎智能算法負(fù)責(zé)人吳迪介紹,「火山方舟」已上線了基于安全沙箱的大模型安全互信計算方案,利用計算隔離、存儲隔離、網(wǎng)絡(luò)隔離、流量審計等方式,實現(xiàn)了模型的機(jī)密性、完整性和可用性保證,適用于對訓(xùn)練和推理延時要求較低的客戶。

安全沙箱示意圖

此外,「火山方舟」還在探索基于 NVIDIA 新一代硬件支持的可信計算環(huán)境、基于聯(lián)邦學(xué)習(xí)的數(shù)據(jù)資產(chǎn)分離等多種方式的安全互信計算方案,更全面地滿足大模型在不同業(yè)務(wù)場景的數(shù)據(jù)安全要求。

第二,想要讓企業(yè)可以更高效地打造AI 大模型應(yīng)用。一方面要降低企業(yè)用戶使用大模型打造應(yīng)用的門檻,另一方面也要降低用戶使用大模型服務(wù)的成本。

上文提到,火山引擎認(rèn)為未來企業(yè)使用大模型會呈現(xiàn)「1+N」的模式,也就是 1 個自研主力模型+N 個小模型同時應(yīng)用。比如一個對話式的 AI 服務(wù)產(chǎn)品,對話功能的基礎(chǔ)是源自企業(yè)自研的大模型,但提供文生圖、文生視頻、特定語種翻譯,或者回答醫(yī)療、金融等專業(yè)領(lǐng)域的問題時,卻可以調(diào)用其他的小模型。

這樣做最大的好處是降低模型的推理成本。吳迪稱,訓(xùn)練大模型很昂貴,但是從長期來看,模型的推理開銷會超過訓(xùn)練開銷。效果和成本的矛盾永遠(yuǎn)存在,降低推理成本會是大模型應(yīng)用落地的重要因素,「一個經(jīng)過良好精調(diào)的中小規(guī)格模型,在特定工作上的表現(xiàn)可能不亞于通用的、巨大的基座模型,而推理成本可以降低到原來的十分之一。」

舉例來說,微軟以醫(yī)學(xué)文章數(shù)據(jù)精調(diào)了生物領(lǐng)域的 BioGPT-Large 模型,僅有 15 億參數(shù),其在 PubMedQA 基準(zhǔn)測試中的準(zhǔn)確率卻優(yōu)于有著上千億乃至數(shù)千億參數(shù)的大型通用語言模型。

但對企業(yè)來說,「1+N」模式的一大痛點(diǎn)就在于開發(fā)應(yīng)用的過程中,需要調(diào)用各種不同的大模型。而火山方舟提供的第一個功能就是模型廣場,不僅集成了大量的第三方大模型,企業(yè)自身開發(fā)的大模型也可以通過這個平臺進(jìn)行管理。

吳迪介紹,企業(yè)可以用統(tǒng)一的工作流對接多家大模型,對于復(fù)雜需求可設(shè)置高級參數(shù)、驗證集、測試集等功能,再通過自動化和人工評估直觀對比模型精調(diào)效果,在不同業(yè)務(wù)場景里還可靈活切換不同的模型,實現(xiàn)最具性價比的模型組合。這些自定義指標(biāo)和評估數(shù)據(jù)的積累,將成為企業(yè)在大模型時代寶貴的數(shù)據(jù)資產(chǎn)。

02火山引擎的大模型「朋友圈」

火山引擎暢想的前景非常理想,但要做到有一個前提,就是大大小小的大模型開發(fā)商需要聚集到火山引擎。數(shù)據(jù)安全是他們愿意接入火山引擎的必要條件,但顯然不會是充分條件。火山引擎吸引大模型開發(fā)商合作的基礎(chǔ),在于其掌握的算力資源,也就是過去囤積的大量GPU。

去年 ChatGPT 發(fā)布后,國內(nèi) AI 算力緊張已經(jīng)算是行業(yè)半公開的秘密,而字節(jié)跳動擁有國內(nèi)最豐富的算力資源。

據(jù)《晚點(diǎn) LatePost》報道,字節(jié)今年向英偉達(dá)訂購了超過 10 億美元的 GPU(約合 70 億元人民幣),到貨和沒到貨的 A100 與 H800 總計有 10 萬塊。而 2022 年全年,英偉達(dá)數(shù)據(jù)中心 GPU 在中國的銷售總額大約為 100 億元,也就是說,僅字節(jié)一家公司今年的訂單可能已接近英偉達(dá)去年在中國銷售的商用 GPU 總和。

大部分團(tuán)隊沒有條件購買大量 GPU 訓(xùn)練大模型,從火山引擎采購算力也就不足為奇。而對火山引擎來說,大模型生產(chǎn)商發(fā)展越好,業(yè)務(wù)量越大,反過來就需要購買更多的算力。所以在這方面,大模型生產(chǎn)商和火山引擎有著相同的訴求。

今年 4 月,火山引擎宣布與國內(nèi) 70% 的大模型生產(chǎn)商達(dá)成合作,原因也在于此。

「火山方舟」首批大模型合作伙伴

會上,火山引擎重點(diǎn)介紹了第一批加入火山方舟的大模型,包括百川智能、出門問問、復(fù)旦大學(xué) MOSS、IDEA 研究院、瀾舟科技、MiniMax、智譜等多家 AI 科技公司及科研院所的大模型,并已啟動邀測。

而首批邀測的企業(yè),則包括金融、汽車、消費(fèi)等眾多行業(yè)的客戶。北京銀行 CIO 龔偉華表示,大模型與客戶營銷、辦公協(xié)同、數(shù)據(jù)智能的結(jié)合,在金融應(yīng)用場景有巨大潛力。北京銀行將與「火山方舟」合作,在算力優(yōu)化、模型精調(diào)等方面展開研究,共同推動金融風(fēng)控、營銷等模型應(yīng)用落地。

除了第三方的客戶,吳迪介紹,在火山方舟平臺推向市場之前,已經(jīng)利用眾多的內(nèi)部產(chǎn)品打磨和改進(jìn)平臺。字節(jié)跳動有10 余個業(yè)務(wù)線正在探索接入和試用,在代碼糾錯等研發(fā)提效場景,文本分類、總結(jié)摘要等知識管理場景,以及數(shù)據(jù)標(biāo)注、歸因分析等方面探索,利用大模型能力促進(jìn)降本增效。

但是,對于這些內(nèi)部嘗試何時面向用戶,吳迪向極客公園表示:還需要一些時間,把大模型應(yīng)用好是一個需要長周期打磨的事。

火山引擎總裁譚待進(jìn)一步補(bǔ)充:有一些應(yīng)用對用戶是無感知的,因為它是在已有的環(huán)境中去提升效率,而不是像 ChatGPT 這種大模型原生應(yīng)用,用戶能明顯感知到是一個大模型來做這個事情。比如客服這個場景,回答時需要檢索知識庫,但現(xiàn)在通過大模型去給它一些提示,但跟你對話的還是那個對應(yīng)的客服,只是它的效率高了。

03?字節(jié)跳動的下一步

目前來看,字節(jié)/火山布局大模型第一階段的思路已經(jīng)非常清晰。

從商業(yè)上看,火山引擎就是賣水賣鏟子的思路。憑借火山引擎的技術(shù)體系,加上此前算力資源的積累,做管道和前期的底層服務(wù)應(yīng)該是沒有任何問題,所以在這個階段把基礎(chǔ)工具開放出來,幫助大家做好大模型,或者更直接說,從收益上的考量,這個階段發(fā)布技術(shù)體系工具比發(fā)布大模型的收益值更高。

但有一個很重要的問題是:今天賣鏟子的字節(jié),未來會不會下場淘金?

答案是肯定的。譚待告訴極客公園,其內(nèi)部也有團(tuán)隊在研發(fā)大模型。如果做好了,也會上到方舟平臺對外提供。此前字節(jié)副總裁楊震原也曾向財新回應(yīng):字節(jié)跳動對大模型也在做一些學(xué)習(xí)和研究,現(xiàn)在還沒有什么結(jié)果,也沒有大模型產(chǎn)品落地時間表。

但這存在一個問題,就是如何平衡自家大模型和其他第三方的關(guān)系。對此,譚待表示,自家的模型只會是眾多模型中的一個,其余的是客戶自己的選擇,不需要火山來平衡,一個企業(yè)未來一定會在多個場景用多個模型,因為每個模型在不同場景的性價比是不一樣的,這會是一個開放的市場。

正式入局后,不少行業(yè)人士看好火山引擎在大模型領(lǐng)域的市場份額會在接下來一段時間快速飆升,原因主要有三個:

第一是因為基礎(chǔ)需求。字節(jié)本身在云服務(wù)這個層面是國內(nèi)用量排在前三的公司,就算火山引擎,最終只是為了服務(wù)字節(jié)這一個生意而建,它的收益和投入產(chǎn)出比都是相當(dāng)可觀的。第二是產(chǎn)品能力。字節(jié)這套體系迭代出來的產(chǎn)品工具向外傳遞,在云服務(wù)里的積累和產(chǎn)品化的能力會非常的強(qiáng),從這個維度來說,對于很多中小開發(fā)者,甚至有體系的開發(fā)者是很有吸引力的。第三是因為生態(tài)系統(tǒng)成熟。字節(jié)本身在云服務(wù)這套體系并不是只做了火山引擎,字節(jié)在上下游的廣告分發(fā)、基礎(chǔ)設(shè)施建設(shè),開發(fā)工具等維度都有完善和成熟的生態(tài)鏈,甚至早幾年還收購了開發(fā)者社區(qū)。有著可靠的基礎(chǔ)體系,完整的工作鏈條和生態(tài)社區(qū)。

過去字節(jié)布局國內(nèi)云服務(wù)市場的痛點(diǎn),在于起步較晚,飛書要挑戰(zhàn)已經(jīng)成熟的釘釘、企業(yè)微信,而云服務(wù)的特點(diǎn)就是前期獲客難,但獲客后由于用戶遷移成本太高,所以輕易不會更換。

今天的大模型是一條全新的賽道,所有云服務(wù)廠商又回到了同一起跑線,對于想要打開云服務(wù)市場的字節(jié)和火山而言,這也是十年難得一遇的機(jī)遇。

本文作者:宛辰,來源:極客公園,原文標(biāo)題:《字節(jié)的野心:做大模型時代的「軍火商」》

風(fēng)險提示及免責(zé)條款 市場有風(fēng)險,投資需謹(jǐn)慎。本文不構(gòu)成個人投資建議,也未考慮到個別用戶特殊的投資目標(biāo)、財務(wù)狀況或需要。用戶應(yīng)考慮本文中的任何意見、觀點(diǎn)或結(jié)論是否符合其特定狀況。據(jù)此投資,責(zé)任自負(fù)。

關(guān)鍵詞: