NPCon2023 AI模型技術(shù)與應用峰會(huì )首站在北京成功舉辦

IM2MakerOpr 2年前 (2023-08-14)

本次峰會(huì )主題圍繞「全鏈路搭建 AI 研發(fā)底座」展開(kāi)。

上世紀的“廣告教父”大衛·奧格威在世時(shí)一直營(yíng)銷(xiāo)著(zhù)一個(gè)概念:“在現代商業(yè)世界,如果你不能將所創(chuàng )造的東西賣(mài)出去,只成為一個(gè)富有創(chuàng )意的思想家是毫無(wú)用處的。”

回顧歷史上的每一次變遷,從學(xué)術(shù)創(chuàng )意到切實(shí)部署的軌跡勾勒出進(jìn)步的藍圖,有如從概念到商業(yè)化的過(guò)程。隨著(zhù) GPT 等大模型技術(shù)的高速成長(cháng)和普及,模型的開(kāi)源資源、部署訓練架構、算力成本成為大模型應用落地和企業(yè)盈虧 ROI 的關(guān)鍵分水嶺,重要性不低于模型精度。

繼今年 3 月的首屆 NPCon 大會(huì )探討了 ChatGPT 對技術(shù)社區的影響之后,8 月 12 日,CSDN、《新程序員》聯(lián)合主辦的“新程序員大會(huì )(NPCon):AI 模型技術(shù)與應用峰會(huì )” 于北京格蘭云天大酒店再度揭幕。

本次峰會(huì )主題圍繞「全鏈路搭建 AI 研發(fā)底座」展開(kāi),是 CSDN 今年推出的“AI 主題季”系列活動(dòng)之一。峰會(huì )活動(dòng)分別會(huì )在北京、上海、深圳、成都四城舉行,北京站現場(chǎng)邀請到千芯科技董事長(cháng)陳巍,Dify.AI 創(chuàng )始人張路宇,美團基礎研發(fā)平臺視覺(jué)智能部軟件開(kāi)發(fā)工程師張旭,浪潮信息人工智能與高性能應用軟件部 AI 架構師Owen Zhu,CSDN 研發(fā)副總監梁灝,圍繞算力資源運維、模型訓練部署、AI 能力構建等方面,為不同規模階段的企業(yè)、團隊、個(gè)人開(kāi)發(fā)者,提供如何構建 AI 基礎設施、實(shí)現工程落地,提供全鏈路的建議和方案。

會(huì )議現場(chǎng)

以下是本次“AI 模型技術(shù)與應用峰會(huì )”的演講精華。

部署就是大模型的成敗關(guān)鍵

首先,知乎科技領(lǐng)域答主@陳巍談芯、千芯科技董事長(cháng)、人工智能算法-芯片協(xié)同設計專(zhuān)家陳巍帶來(lái)了分享《大模型涌現,如何部署訓練架構與算力芯片》。他的核心觀(guān)點(diǎn)在于強調大模型訓練和部署過(guò)程中的技術(shù)優(yōu)化、隱私保護、成本效益以及未來(lái)芯片發(fā)展的重要性。

知乎科技領(lǐng)域答主@陳巍談芯、千芯科技董事長(cháng) 陳巍

陳巍指出,大模型的本質(zhì)是對知識的壓縮和對輸入的反饋,一個(gè)常見(jiàn)大模型的生存周期分為模型的計劃、高質(zhì)量數據的收集、模型的建模和部署三個(gè)階段。其中,部署是大模型成敗和能否盈利的關(guān)鍵。

他認為,在大模型訓練和部署中,使用并行化技術(shù)(如數據并行、模型并行、張量并行)可以充分利用計算資源,提高效率。他強調通過(guò)優(yōu)化通信,減少數據傳輸冗余,可以降低計算芯片之間的通信成本,從而提升整體訓練效率。

陳巍關(guān)注大模型部署中的隱私問(wèn)題,特別是個(gè)性化數據和敏感信息的保護。他介紹了隱私保護技術(shù),如將個(gè)人數據合并以降低隱私風(fēng)險,并限制模型輸出中的敏感信息。陳巍強調,對于涉及個(gè)人隱私和敏感信息的部署,必須采取適當的隱私保護措施。

此外,陳巍提出了不同的方法來(lái)降低大模型訓練和部署的成本。他介紹了模型訓練成本的評估方法,包括如何通過(guò)數據大小和訓練條件來(lái)優(yōu)化成本。他還探討了不同算力芯片(CPU、GPU、DSA、TPU)的應用,以及如何通過(guò)合理的策略來(lái)降低成本。

最后,陳巍強調未來(lái)芯片的發(fā)展可能對大模型訓練和部署產(chǎn)生影響,特別是在現有 GPU 生態(tài)受到限制的情況下。他認為在不同的算力芯片中,TPU 和 DSA 可能逐漸代替傳統的 GPU 應用。陳巍呼吁采取合適的技術(shù)策略和隱私保護措施,以降低成本、提高效率,并關(guān)注未來(lái)芯片趨勢對于人工智能產(chǎn)業(yè)的影響。

Agent 是大模型未來(lái)最有想象力、最有前景的方向

“Agent 是 LLM(大語(yǔ)言模型)的最有前景的方向。一旦技術(shù)成熟,短則幾個(gè)月,長(cháng)則更久,它可能就會(huì )創(chuàng )造出超級個(gè)體。這解釋了我們?yōu)楹螌﹂_(kāi)源模型和 Agent 興奮,即便投產(chǎn)性不高,但是我們能想象自己有了 Agent 之后就可以沒(méi)日沒(méi)夜地以百倍效率做現在手上的工作。未來(lái)可能會(huì )有 Agent 網(wǎng)絡(luò ),每家公司甚至每個(gè)人都有自己的Agent,互相調用形成網(wǎng)絡(luò )效應,帶來(lái)繁榮的生態(tài)。”,Dify.AI 創(chuàng )始人張路宇在主題演講中如是說(shuō)道。

張路宇指出,開(kāi)發(fā)者在應用大模型時(shí)常常面臨向量數據庫、Agent編排等問(wèn)題,并且許多開(kāi)發(fā)者在初期都需要解決相似的難題,導致效率低下。盡管有大量應用和模型,實(shí)際投產(chǎn)的應用比例只有 5% 左右。

由此,張路宇強調了自動(dòng)代理(Auto Agent)在推理模型、編程范式和應用構建方面的重要性和挑戰。他提出了“規劃、記憶、工具的使用和總結與反思”這四個(gè)關(guān)鍵要素來(lái)解釋自動(dòng)代理的推理過(guò)程。他強調了規劃過(guò)程的重要性,將任務(wù)分解為多個(gè)步驟,并介紹了長(cháng)期記憶和短期記憶的概念,探討如何適時(shí)調用工具、合理使用人類(lèi)輸入、進(jìn)行多輪對話(huà),并強調推理性能、透明性和成本控制等方面的挑戰。

張路宇提到 LangChain 作為一個(gè)學(xué)習大模型應用開(kāi)發(fā)的教科書(shū),提供了抽象概念和工具。但他也指出了 LangChain 的局限性,特別是在工具和集成鍵方面的脆弱性,以及不適合非技術(shù)人員的參與。他說(shuō)道:“每個(gè)人都要學(xué)習 LangChain,但最終都會(huì )丟掉它。”

演講中,張路宇引入了 MetaPrompt 的概念,將其描述為一種結構化的提示方式,可引導模型進(jìn)行復雜的推理和行動(dòng)。他指出,MetaPrompt 是引導大模型執行任務(wù)的關(guān)鍵工具,將用戶(hù)問(wèn)題、前期反思、工具調用和模式以特定格式描述成提示。

張路宇認為,面對大模型的開(kāi)發(fā),傳統的編程范式已經(jīng)不再適用。他提出了一種新的編程范式,即 "prompt first"。在大模型應用開(kāi)發(fā)中,傳統的需求分析和 API 文檔設計可能不再適用。相反,他強調在設計應用之前應先考慮模型的輸入提示(prompt),并用這種方式引導模型執行任務(wù)。

如何高效推理,仍是大模型時(shí)代亟需解決的挑戰

緊接著(zhù),美團基礎研發(fā)平臺視覺(jué)智能部軟件開(kāi)發(fā)工程師張旭在發(fā)表《美團視覺(jué) GPU 推理服務(wù)部署架構優(yōu)化的實(shí)踐》主題演講中表示,GPU 利用率低的問(wèn)題正日益凸顯,其核心癥結在于模型服務(wù)存在性能瓶頸。通過(guò)拆分微服務(wù)、優(yōu)化部署架構以及綜合考慮多個(gè)優(yōu)化層面,將模型 CPU 和 GPU 運算部分解耦,能實(shí)現模型部署工程的性能優(yōu)化,讓服務(wù)性能成倍提升。

隨著(zhù)技術(shù)應用在線(xiàn)服務(wù)推理資源不斷增加,GPU 推理資源的使用比例逐年上升,但 GPU 的利用率卻一直在被浪費。張旭透露,業(yè)界的真實(shí) GPU 利用率哪怕樂(lè )觀(guān)估計也只有 20% 左右。造成服務(wù) GPU 利用率低下的重要原因之一是模型服務(wù)本身存在性能瓶頸,在極限壓力情況下也無(wú)法充分利用 GPU 資源。

乍一看,模型部署十分完善,事實(shí)上,當前的模型優(yōu)化不徹底,部分算子無(wú)法優(yōu)化加速,多模型的串聯(lián)部署也很困難。在 GPU 異構計算體系下,模型中 CPU 和 GPU 運算之間還存在相互影響的問(wèn)題。張旭指出,這種影響會(huì )導致 CPU 和 GPU 無(wú)法同時(shí)充分利用,從而降低了推理服務(wù)的整體性能。

為此,張旭提出了解決 CPU/GPU 互相影響問(wèn)題的一種優(yōu)化方法,即將模型中的 CPU 和 GPU 運算部分分別拆分為獨立的微服務(wù)。他通過(guò)實(shí)際案例演示,將預處理和后處理部分獨立到通用 CPU 服務(wù),主干網(wǎng)絡(luò )部分部署在 GPU 上,從而實(shí)現了更高的 GPU 利用率和整體性能提升。

在復雜視覺(jué)場(chǎng)景下,多模型的組合會(huì )引發(fā)更嚴重的 GPU/CPU 影響問(wèn)題。張旭通過(guò)實(shí)例說(shuō)明了針對多模型組合的場(chǎng)景,同樣可以采用 CPU/GPU 拆分部署的方式,將不同模型部分分別部署,以解決性能瓶頸問(wèn)題。他強調不同優(yōu)化層面之間的相互影響和迭代優(yōu)化的重要性,以實(shí)現性能的持續提升。

算力是驅動(dòng)大模型創(chuàng )新和進(jìn)步的基石

在現代人工智能領(lǐng)域,算力扮演著(zhù)推動(dòng)創(chuàng )新、實(shí)現突破的核心驅動(dòng)力。浪潮信息人工智能與高性能應用軟件部 AI 架構師Owen以《AI 大模型算力系統分析》為主題,強調了算力、算法、數據和系統架構等多個(gè)方面的綜合優(yōu)化對于大規模模型訓練的成功至關(guān)重要。

浪潮信息早在2020年就開(kāi)始布局和投入AI大模型技術(shù)的研發(fā),Owen從“源”大模型的研發(fā)歷程切入,講解了大模型研發(fā)過(guò)程中的數據、算力和算法等各方面的挑戰。并指出國內企業(yè)在上半年對算力的需求增加,尤其在大型模型訓練方面。他強調了 GPT-3 和 GPT-4 等模型的重要性,同時(shí)提到了中國企業(yè)在這一領(lǐng)域的競爭和發(fā)展前景。強調了算力投入是評估模型能力一個(gè)重要指標。

隨后,Owen探討了大模型研發(fā)過(guò)程中預訓練、微調和模型推理等環(huán)節的核心關(guān)鍵因素和主要計算特征。并強調,未來(lái)大模型的產(chǎn)業(yè)化發(fā)展是一套復雜的系統工程,構建高效穩定的算力平臺是核心要義,成熟的算法、數據產(chǎn)業(yè)鏈,配套工具鏈及豐富的生態(tài)鏈是關(guān)鍵因素,我們亟需以系統的方式尋找最優(yōu)解。

用好工具,人人都是 AI 應用開(kāi)發(fā)者

在閃電演講環(huán)節,CSDN 研發(fā)副總監梁灝先是介紹了自己的經(jīng)歷:將開(kāi)源 iView 從 0 做到 20,000 Star,最大的感受便是好的工具能讓開(kāi)發(fā)更簡(jiǎn)單。而他要介紹的 InsCode,正是這樣的平臺。

InsCode 是 CSDN 于 2023 年推出的一站式應用開(kāi)發(fā)工具和服務(wù)平臺。它在瀏覽器中實(shí)現從編碼到部署的完整過(guò)程。僅僅在四個(gè)多月內,InsCode 就吸引了超過(guò) 5 萬(wàn)注冊用戶(hù),其中一半以上為開(kāi)發(fā)用戶(hù)。累計創(chuàng )建了 4 萬(wàn)多個(gè)項目,其中許多項目已經(jīng)公開(kāi)發(fā)布或部署到社區。梁灝指出,InsCode 徹底改變了傳統的開(kāi)發(fā)流程,使用戶(hù)能夠在線(xiàn)上完成應用的開(kāi)發(fā)、部署、運維和運營(yíng),從而使應用開(kāi)發(fā)變得更加簡(jiǎn)單。

梁灝強調了 InsCode 在 AI 時(shí)代的地位,尤其是其面向開(kāi)發(fā)者的 AI 服務(wù)。他提到,專(zhuān)業(yè)程序員可以借助 InsCode 提高開(kāi)發(fā)效率和創(chuàng )造能力,普通程序員可以通過(guò)生成式 AI 工具減輕編碼工作,而泛開(kāi)發(fā)者甚至可以利用模板和自然語(yǔ)言提交需求,快速開(kāi)發(fā)多樣化的應用。正如 CSDN 的 Slogan:人人都是開(kāi)發(fā)者。

最后,InsCode 聯(lián)合創(chuàng )新工場(chǎng)盛大召開(kāi) AI 應用編程大賽,目前活動(dòng)已處于啟動(dòng)階段,歡迎讀者們訪(fǎng)問(wèn) inscode.net 進(jìn)行報名或者參賽,贏(yíng)取豐厚獎金。

開(kāi)談:AI 時(shí)代的研發(fā)新范式

與開(kāi)發(fā)者能力演進(jìn)

在本次論壇的《開(kāi)談》環(huán)節,由 CSDN 人工智能技術(shù)編輯團隊主持,華為諾亞方舟實(shí)驗室技術(shù)專(zhuān)家董振華,投研機構 INP(Infra Native Partners)創(chuàng )始人丁寧,CodeGeeX 團隊算法專(zhuān)家沈磊,聆心智能創(chuàng )始人& CTO 鄭叔亮作為嘉賓的圓桌對話(huà)正式展開(kāi)。

本次《開(kāi)談》的主題為“AI 時(shí)代的研發(fā)新范式與開(kāi)發(fā)者能力演進(jìn)”,五位技術(shù)專(zhuān)家聚焦于過(guò)去一年內 AI 技術(shù)和模型的快速發(fā)展,特別是大模型的涌現以及與模型開(kāi)發(fā)相關(guān)的基礎設施和應用技術(shù)的突破,探討大模型的未來(lái)走向,未來(lái)編程語(yǔ)言和開(kāi)發(fā)范式的影響,以及如何通過(guò)工具提高效率、學(xué)習 AI 知識和技能并在競爭激烈的領(lǐng)域中保持競爭力。

《開(kāi)談》:AI時(shí)代的研發(fā)新范式與開(kāi)發(fā)者能力演進(jìn)

”模型團隊應該更關(guān)注模型效果,也要努力做具體應用。擴大模型參數量至兩倍所產(chǎn)生的效果,遠高于對其做加倍預訓練所呈現的效果。夯實(shí)大模型 L0 層能力、對行業(yè)模型進(jìn)行優(yōu)化是我們的努力方向。”,華為諾亞方舟實(shí)驗室技術(shù)專(zhuān)家董振華分享道。

董振華是研究者,也是《新程序員》的忠實(shí)讀者。他從研究者的角度強調開(kāi)源在追趕人工智能技術(shù)方面的重要作用,認為開(kāi)源可以幫助解決人工智能技術(shù)以及大模型的問(wèn)題,使其更好地落地和應用。未來(lái),不同規模階段的企業(yè)、團隊和開(kāi)發(fā)者都應該擁抱開(kāi)源,將先進(jìn)的技術(shù)借鑒于開(kāi)源社區,從而形成更有條理的發(fā)展模式,不僅僅是商業(yè)公司的行為。

當談及大模型生態(tài)的問(wèn)題時(shí),投研機構 INP(InfraNative Partners)創(chuàng )始人丁寧回答:“大模型生態(tài)從商業(yè)考慮,相比面向具體任務(wù)做模型 Finetune,要更關(guān)注其通用能力;與過(guò)去模型參數內僅是特征提取器不同,現在還包含意識形態(tài)、價(jià)值觀(guān)等要素給大模型生態(tài)商業(yè)化帶來(lái)更多不確定性。”

丁寧從不同類(lèi)型的創(chuàng )業(yè)公司角度,分析了商業(yè)應用與研究階段的優(yōu)先級問(wèn)題。他將創(chuàng )業(yè)公司分為幾類(lèi),包括做 Foundation Model 的、做 Fine-Tuning 的以及使用平臺集成的。丁寧認為,在 Foundation Model 階段,重點(diǎn)在于搭建可擴展的算力集群、高性能網(wǎng)絡(luò )以及高性能數據存儲基礎設施,設計精巧的逼近實(shí)驗以求盡可能高的提高單次模型訓練ROI,力求用最小的成本換取最大的實(shí)驗進(jìn)展。

在Fine-Tuning階段,重點(diǎn)在于如何將大語(yǔ)言模型應用于特定領(lǐng)域,并解決訓練和數據管理等基礎設施問(wèn)題,但更重要的是建立數據的內循環(huán)與業(yè)務(wù)的外循環(huán)。如果不去接觸模型訓練,他強調了應用工具和服務(wù)的重要性,如何將大語(yǔ)言模型與現有技術(shù)結合,提供工具的同時(shí)也要提供持續的服務(wù),例如合規、安全監控、線(xiàn)上業(yè)務(wù)持續性保障等實(shí)際應用價(jià)值。

CodeGeeX 團隊算法專(zhuān)家沈磊則強調了在使用大模型方面的實(shí)踐建議和團隊協(xié)作的重要性:“我的建議是要擁抱新的工具和功能。對于個(gè)人開(kāi)發(fā)者或者公司來(lái)說(shuō),使用輔助工具可以顯著(zhù)提升編程效率,甚至提高 10% 的效率對于一個(gè)人來(lái)說(shuō)也是很可觀(guān)的進(jìn)步。當我們面對變化時(shí),要勇于接受并嘗試新的技能和工具,這將對個(gè)人和團隊都非常有幫助。”

沈磊為想要使用大模型的公司或個(gè)人給出建議,首先嘗試使用開(kāi)源的模型和插件。這可以幫助他們在實(shí)際場(chǎng)景中試用模型和微調代碼,了解模型效果,從而在做出關(guān)于使用什么樣的模型、框架和機器配置的決定時(shí)更具有理性和經(jīng)驗。

在開(kāi)源領(lǐng)域的話(huà)題上,聆心智能創(chuàng )始人& CTO 鄭叔亮闡釋了自己的觀(guān)點(diǎn):“開(kāi)源模型讓創(chuàng )業(yè)者借助大平臺搭建原型、實(shí)現核心創(chuàng )新突破并快速交付產(chǎn)品,制造多贏(yíng)的局面。但初創(chuàng )公司仍需厘清其中存在的安全性和價(jià)值觀(guān)風(fēng)險,才能在開(kāi)源的土壤生根發(fā)芽。”

對于未來(lái)可能會(huì )創(chuàng )造的機遇,鄭叔亮表示:“在我們上學(xué)的時(shí)候,編譯原理課程需要花兩個(gè)學(xué)期來(lái)完成一個(gè)編譯器,數據庫課程則要求編寫(xiě)一個(gè) DBMS 系統,本科階段的大作業(yè)基本都是這樣的。這種經(jīng)歷讓我們在面對新技術(shù)時(shí)更加從容,不會(huì )對挑戰、威脅或恐慌過(guò)于擔憂(yōu),而是欣然接受新鮮事物。簡(jiǎn)而言之,如果我們不能成為創(chuàng )造浪潮的人,至少應該成為在浪潮上跳舞的人。雖然只有少數人會(huì )創(chuàng )造這波浪潮,但更多的人可以站在潮頭,享受其中的樂(lè )趣。”

大模型時(shí)代的新程序員

NPCon 中的“NP”是“New Programmer”(新程序員)的縮寫(xiě),它承載著(zhù)兩重含義。首先,它象征著(zhù)《新程序員》雜志,這是 CSDN 延續近 20 年的《程序員》雜志的全新篇章。其次,它象征著(zhù)我們站在人工智能紀元的起點(diǎn),或許將親歷程序員職業(yè)范式的巨變,成為新一代的程序員。

CSDN 這些年一直在持續關(guān)注人工智能技術(shù)這一賽道,與其他以 AI 為主題的垂直媒體不同的是,CSDN 擁有近五千萬(wàn)開(kāi)發(fā)者社區規模的平臺,除了關(guān)注科研突破和商業(yè)應用外,更著(zhù)重關(guān)心人工智能應用的工程實(shí)現。當前,人工智能技術(shù)不斷刷新能力極限,各種相關(guān)新聞層出不窮,然而實(shí)際情況是,我們在基礎設施、工程實(shí)施、成本以及應用落地方面依然面臨著(zhù)漫長(cháng)的前行之路。

不論我們是創(chuàng )新的推動(dòng)者還是變革的見(jiàn)證者,我們都應該邁出那一步,踏上旅程。若“新程序員”不能成為浪潮的奠基者,至少應當成為其中的弄潮兒。新程序員們會(huì )懷揣著(zhù)創(chuàng )業(yè)的精神,始終保持持續學(xué)習的狀態(tài)。如此一來(lái),我們的努力才會(huì )更具深遠的意義。

與此同時(shí),CSDN 也將持續更新 AIGC 和大模型技術(shù)的發(fā)展動(dòng)態(tài),為廣大技術(shù)愛(ài)好者提供最新的技術(shù)資訊和最優(yōu)質(zhì)的學(xué)習資源與工具,成就更多技術(shù)人與開(kāi)發(fā)者,歡迎關(guān)注。

最后,記得關(guān)注微信公眾號:鎂客網(wǎng)(im2maker),更多干貨在等你!

鎂客網(wǎng)


科技 | 人文 | 行業(yè)

微信ID:im2maker
長(cháng)按識別二維碼關(guān)注

硬科技產(chǎn)業(yè)媒體

關(guān)注技術(shù)驅動(dòng)創(chuàng )新

分享到