欧美日韩国产综合在线_久久久久免费视频_久久国产精品偷_欧美区二区三区

梧桐臺 —— 紡織服裝產(chǎn)業(yè)服務(wù)平臺

服飾產(chǎn)業(yè)互聯(lián)網(wǎng)服務(wù)平臺,線上線下,助您快速實現(xiàn)商業(yè)價值

新用戶注冊 立即登錄
換一個
獲取短信驗證碼
×
×

聞力生:服裝制造業(yè)必須認(rèn)知AI大模型及其應(yīng)用

發(fā)布時間:2024-04-17  閱讀數(shù):30169

聞力生:服裝制造業(yè)必須認(rèn)知AI大模型及其應(yīng)用



圖片

中國服裝智能制造聯(lián)盟專家組副組長

東華大學(xué)教授   聞力生



2023年4月28日和5月5日黨中央工作會議上提出了關(guān)于人工智能發(fā)展的三個第一次,即第一次提出“通用人工智能”,第一次提出“產(chǎn)業(yè)智能化”,第一次提出“要把握人工智能等新科技革命浪潮”,可見黨中央對人工智能AI發(fā)展十分重視。根據(jù)AI當(dāng)前發(fā)展情況來看,我們現(xiàn)在已經(jīng)處在AI大模型時代,大模型各種各樣,其參數(shù)規(guī)模不斷提升,行業(yè)應(yīng)用不斷拓展,從整體來看,AI大模型不僅可以生成文字、可以生成圖片,而且可以生成代碼,構(gòu)建人機交互新模式,它還能與產(chǎn)品研發(fā)、工藝設(shè)計、生產(chǎn)作業(yè)、產(chǎn)品運營等制造環(huán)節(jié)、場景相結(jié)合,提高生產(chǎn)效率,形成新的生產(chǎn)力,從而引發(fā)整個產(chǎn)業(yè)格局的重構(gòu)。那么什么是AI大模型呢?它在我們服裝制造業(yè)進行智能化轉(zhuǎn)型中又有什么作用呢?


一、 AI大模型定義及其相關(guān)概念


1) AI大模型定義與類型:


AI大模型是指具有巨大參數(shù)量規(guī)模的人工智能模型,這些模型通過機器學(xué)習(xí)和深度學(xué)習(xí)的技術(shù)來學(xué)習(xí)和理解龐大的數(shù)據(jù)量。這些模型能夠解決多種任務(wù),適應(yīng)不同的業(yè)務(wù)場景和語言環(huán)境,并且能夠不斷進行訓(xùn)練和優(yōu)化,以實現(xiàn)更高效、更準(zhǔn)確的語義理解和應(yīng)用。
目前市場上公司及研究院校所等發(fā)布的AI大模型一般參數(shù)量是從10億參數(shù)到上千億參數(shù),根據(jù)我國科技部2023年的統(tǒng)計,中國10億參數(shù)量規(guī)模以上的大模型已發(fā)布了79個,美國發(fā)布已超過100個。
AI大模型有自然語言處理、計算機視覺和語音識別三個大領(lǐng)域,見圖一。正因為有了這三個大領(lǐng)域,才構(gòu)成了人工智能的豐富世界,也才能夠讓機器更深入地理解我們的語言、圖像和聲音,從而為我們?nèi)祟愄峁└悄堋⒏憬莸姆?wù)。

圖片

圖一  AI大模型領(lǐng)域
在這三個領(lǐng)域中以大語言模型LLM(Large Language Model)和計算機視覺大模型CV(Computer Vision)較為常見。LLM大模型主要用于處理自然語言任務(wù),如文本生成、情感分析、問答系統(tǒng)等。這類模型通過對大量文本數(shù)據(jù)進行訓(xùn)練,學(xué)習(xí)到了語言的語法、語義和上下文相關(guān)性,從而能夠理解和生成自然語言文本;CV大模型,即計算機視覺模型,主要用于處理圖像和視頻相關(guān)的任務(wù),如圖像分類、目標(biāo)檢測、人臉識別等。這類模型通過對大量圖像數(shù)據(jù)進行訓(xùn)練,學(xué)習(xí)到了圖像的特征表示和分類規(guī)則,從而能夠進行圖像的分類和目標(biāo)檢測等任務(wù)。除此之外還有自然語言處理NLP大模型和強化學(xué)習(xí)RL大模型也是常見的AI大模型類型,但它們的應(yīng)用范圍相對較窄。NLP大模型主要用于自然語言處理任務(wù),如文本摘要、機器翻譯等;而RL大模型主要用于強化學(xué)習(xí)任務(wù),并通過與環(huán)境的交互學(xué)習(xí)最優(yōu)策略。總的來說,AI大模型的應(yīng)用取決于具體的任務(wù)和場景,不同類型的模型各有其優(yōu)勢和局限性。
當(dāng)前典型的LLM大模型包括我們熟悉的OpenAI的GPT系列、Google的BERT模型等。在已經(jīng)過去的2023年,最具影響的GPT-4、ChatGPT憑一己之力掀起了AI領(lǐng)域的熱潮,火爆全球。特別是ChatGPT入選了2023年度《Nature》十大人物(Nature’s 10),這是有史以來第一次以一個“計算機程序”——非人類實體作為人物入選。同時,我國國家語言資源監(jiān)測與研究中心、商務(wù)印書館等單位聯(lián)合主辦的“漢語盤點2023”公布的年度國際詞,同樣是ChatGPT。ChatGPT讓大模型席卷全球,大模型被全球科技領(lǐng)袖定義為一次顛覆式科技革命。
我曾經(jīng)說過,GPT是英文字首(Generative Pre-trained Transformer),可以叫“生成性預(yù)訓(xùn)練變換模型”,也可以叫“生成性人工智能”,是基于自然語言處理NLP基礎(chǔ)上發(fā)展起來的大數(shù)據(jù)、大算力、大模型。現(xiàn)在的GPT就是新一代人工智能發(fā)展的代表,它可以說是以現(xiàn)在的機器學(xué)習(xí)和深度學(xué)習(xí)等為主體,在其基礎(chǔ)上參考人腦的計算機制,構(gòu)建機器的學(xué)習(xí)和推理智能系統(tǒng),這些都是在Transformer模型基礎(chǔ)上發(fā)展起來的,見圖二。

圖片

圖二 LLM大模型發(fā)展的基礎(chǔ)/大模型的發(fā)展基礎(chǔ)
Transformer模型是深度學(xué)習(xí)中的一種神經(jīng)網(wǎng)絡(luò)模型,該模型2017年是由Google開源的。目前Transformer模型已經(jīng)成為自然語言處理領(lǐng)域中最流行的模型之一。Transformer架構(gòu)是一種基于自注意力機制的神經(jīng)網(wǎng)絡(luò)架構(gòu),在處理序列數(shù)據(jù)和建模語言相關(guān)性方面表現(xiàn)出色,見圖三。

圖片

圖三  Transformer模型架構(gòu)(英中文)
由圖可見,Transformer架構(gòu)由編碼Encoder和解碼Decoder兩部分組成,每部分均可堆疊多層,其工作流程分下面五步:①輸入處理——將輸入序列通過Embedding(嵌入技術(shù))層轉(zhuǎn)化為向量,并加上位置編碼;②Encoder編碼處理——經(jīng)過多頭自注意力層和前饋神經(jīng)網(wǎng)絡(luò)層,輸出編碼后的向量;③Decoder解碼處理——在解碼階段,除了自注意力機制外,還引入Encoder-Decoder Attention(編碼器-解碼器注意力),使Decoder能夠關(guān)注Encoder的輸出;④輸出生成——通過線性層和softmax函數(shù),將Decoder的輸出轉(zhuǎn)化為預(yù)測詞匯的概率分布;⑤輸出應(yīng)用。
這里要注意的是,雖然先進的大模型確實使用了Transformer架構(gòu)作為基礎(chǔ),但并非所有的大模型都是基于Transformer架構(gòu)構(gòu)建的。事實上,有許多其他的架構(gòu)也被廣泛應(yīng)用于大模型的構(gòu)建,這些架構(gòu)根據(jù)任務(wù)和領(lǐng)域的不同而有所差異。例如,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在圖像處理領(lǐng)域中被廣泛使用,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)在處理序列數(shù)據(jù)和自然語言生成中得到了廣泛應(yīng)用等等。
根據(jù)大語言模型LLM用途來分,它還可以分為通用大語言模型LLM和專業(yè)用大語言模型LLM,專業(yè)用大模型又有它的獨特構(gòu)建方式,見圖四。

圖片

圖四  大語言模型LLM分類(圖源:coggle)
2)大語言模型LLM的構(gòu)建流程
我們通常所使用的大語言模型LLM的構(gòu)建流程是以O(shè)penAI推出的流程為代表的,其流程如圖五所示。它主要包含四個階段:預(yù)訓(xùn)練、有監(jiān)督微調(diào)、獎勵建模、強化學(xué)習(xí)。這四個階段都需要不同規(guī)模的數(shù)據(jù)集合、不同類型的算法,產(chǎn)出不同類型的模型,所需要的資源也有非常大的不同。

圖片

圖五  大語言模型構(gòu)建流程
3) 國內(nèi)外著名的大語言模型LLM
目前大語言模型LLM的發(fā)展表現(xiàn)如下:在國外,首當(dāng)其沖的是OpenAI推出的基于GPT-4的大型語言模型ChatGPT,其次是Google、Microsoft、Meta和NVIDIA等推出的大型語言模型;在國內(nèi)目前有百度、金山、智譜、百川、字節(jié)、商湯、中科院(紫東太初)等企業(yè)和機構(gòu)等推出的大模型,見圖六。但經(jīng)過最近的幾個月發(fā)展,國內(nèi)大模型發(fā)展比較有名的已有十五家之多,見圖七。

圖片

圖六 國內(nèi)外著名的大語言模型

圖片

圖七 國內(nèi)目前著名的大模型
4)語言大模型LLM與多模態(tài)大模型
所謂多模態(tài)大模型是指一種能夠處理多種類型數(shù)據(jù)的機器學(xué)習(xí)模型,如文本、圖像、音視頻數(shù)據(jù)等,并在這些數(shù)據(jù)之間建立關(guān)聯(lián)。因為我們?nèi)祟惿钤谝粋€多模態(tài)信息數(shù)據(jù)構(gòu)成的世界,需要通過視覺、聽覺、觸覺、嗅覺等感官來接收和理解外部的信息,或者通過語言、文字、圖畫、音樂等方式來表達和傳遞信息,所以我們十分需要多模態(tài)大模型。但是在人工智能的發(fā)展歷史上,大多數(shù)的模型都是基于單一模態(tài)的數(shù)據(jù)來進行學(xué)習(xí)和推理的,那么除了多模態(tài)大模型之外,有沒有一個單一模態(tài)的大模型發(fā)展成為多模態(tài)大模型呢?回答是有的。其實,語言大模型LLM通常就被認(rèn)為具有多模態(tài)特征,因為它可以處理不僅僅是文本數(shù)據(jù),還包括語音、圖像和其他類型的數(shù)據(jù)。這意味著大型語言模型(LLM)可以看作是處理多模態(tài)數(shù)據(jù)的一種形式,特別是當(dāng)這些模型被用于理解或生成不同模態(tài)(如視覺、語音等)的信息時。例如,多模態(tài)大型語言模型(MLLM)可以利用大型語言模型(LLM)作為大腦來執(zhí)行多模態(tài)任務(wù)。當(dāng)它們擴展到多模態(tài)數(shù)據(jù)時,它們能夠處理和理解來自不同源的信息,例如圖像、音頻和視頻。但需要注意的是,雖然LLM大模型可以處理多模態(tài)特征,但它在處理視覺數(shù)據(jù)方面可能沒有專門設(shè)計的CV大模型的性能和精確度。所以,對于特別側(cè)重于視覺處理的任務(wù),使用專門設(shè)計的CV大模型可能更適合。
5)生成式AI、AIGC和LLM三者的區(qū)別
生成式AI、AIGC和LLM三者都是人工智能領(lǐng)域的重要分支,各自展現(xiàn)了獨特的魅力和功能,但它們各自有不同的側(cè)重點和應(yīng)用場景。生成式AI(Generative AI)是指能夠模擬人類智能生成新的、真實的、有用的信息的AI技術(shù)。這種技術(shù)通過學(xué)習(xí)大量的數(shù)據(jù),能夠生成與現(xiàn)實世界類似的新圖像、音頻、視頻等。例如,生成式AI可以用于藝術(shù)創(chuàng)作、文本生成、音樂制作等領(lǐng)域;AIGC(Artificial Intelligence Generated Content)是人工智能領(lǐng)域的一個新概念,它指的是由人工智能生成的符合用戶需求和偏好的內(nèi)容。這種內(nèi)容可以是文本、圖像、音頻、視頻等各種形式。AIGC是AI領(lǐng)域的技術(shù)集合,包括深度學(xué)習(xí)、機器學(xué)習(xí)、自然語言處理等。AIGC更側(cè)重于生成全新的、原創(chuàng)的內(nèi)容,往往具有更高的創(chuàng)新性和獨特性;LLM(Large Language Model)是大型語言模型,是一種基于深度學(xué)習(xí)技術(shù)的自然語言處理模型。它能夠理解和生成人類語言,包括文本、語音等。LLM通常被用于自然語言處理任務(wù),如機器翻譯、文本生成、情感分析等。總之生成式AI、AIGC和LLM三者的區(qū)別在于它們的側(cè)重點和應(yīng)用場景。生成式AI側(cè)重于模擬人類智能生成新的信息,AIGC側(cè)重于生成全新的、原創(chuàng)的內(nèi)容,而LLM則是一種基于深度學(xué)習(xí)技術(shù)的自然語言處理模型。
6)大語言模型 LLM與智能助理(或智能代理)AI Agent
AI Agent的正確名稱是人工智能代理(Artificial Intelligence Agent),它是一個能夠感知環(huán)境、進行決策和執(zhí)行動作的智能實體,它不同于傳統(tǒng)的人工智能,它是一個復(fù)雜的AI系統(tǒng),它能通過感知信息、處理信息、執(zhí)行任務(wù)和輸出結(jié)果等步驟,實現(xiàn)從感知到行動的完整過程。AI Agent和LLM(大型語言模型)之間的關(guān)系非常密切。簡單來說,LLM好比是Agent的大腦,它能為AI Agent提供了強大的語言處理能力和文本生成能力,而AI Agent則通過利用LLM的這些能力,進一步與環(huán)境交互、主動決策并執(zhí)行各種任務(wù)。因此,LLM是AI Agent的核心組成部分,它為AI Agent提供了驅(qū)動和支撐。
由AI與人類的交互模式發(fā)展來看(見圖八),AI Agent模式能夠自主調(diào)用資源完成任務(wù),人類在其中只起到設(shè)立目標(biāo)、監(jiān)督結(jié)果和評估的作用。可見AI Agent能具有更廣泛的應(yīng)用范圍,可處理多個任務(wù),并能在不同領(lǐng)域中執(zhí)行各種功能行動;它還具有更自然和靈活的交互方式,能夠理解復(fù)雜的自然語言指令,與用戶進行更智能的對話等。 

圖片

圖八  AI Agent與人類的交互模式(圖源:網(wǎng)絡(luò))
AI Agent通常還被視為是大模型落地業(yè)務(wù)場景的主流形式,是企業(yè)構(gòu)建智能的未來,也是人類的理想智能助手。根據(jù)IDC調(diào)研顯示:所有受訪企業(yè)都認(rèn)為AI Agent是發(fā)展的方向,現(xiàn)在有50%的企業(yè)已經(jīng)在某項工作中進行了AI Agent的試點,另有34%的企業(yè)正在制定AI Agent的應(yīng)用計劃,見圖九。

圖片

 圖九  AI Agent在企業(yè)應(yīng)用
7)SORA與LLM關(guān)系
OpenAI在2024年2月16日發(fā)布了Sora,這是一個文本到視頻的生成AI模型,能夠根據(jù)文本提示生成現(xiàn)實或富有想象力的場景視頻。Sora本身是一個專門設(shè)計用于視頻生成和處理的模型,其重點在于將文本描述轉(zhuǎn)化為視覺內(nèi)容。它并不是直接依賴LLM來生成視頻內(nèi)容的。相反,Sora使用其內(nèi)部的深度學(xué)習(xí)架構(gòu)和算法來將文本轉(zhuǎn)化為視覺元素,并生成最終的視頻輸出。在Sora文本視頻架構(gòu)中,LLM大模型常被用作文本到視頻生成的核心組件。LLM大模型可以接受文本輸入,并生成對應(yīng)的文字描述或說明,作為視頻生成的基礎(chǔ)。通過將LLM大模型與其他圖像處理和動畫生成技術(shù)結(jié)合起來,可以實現(xiàn)基于文本的視頻生成。因此,SORA文生視頻架構(gòu)和LLM大模型之間存在一定的關(guān)聯(lián),LLM大模型是視頻生成的重要組成部分之一。
8)大模型訓(xùn)練面臨的挑戰(zhàn)與解決之道
雖然大型語言模型(LLM)徹底改變了自然語言處理和理解領(lǐng)域,實現(xiàn)了跨各個領(lǐng)域的廣泛人工智能應(yīng)用。然而部署LLM 應(yīng)用程序也面臨著一系列挑戰(zhàn),例如:在數(shù)據(jù)算法算力的資源挑戰(zhàn);訓(xùn)練環(huán)境與能源的挑戰(zhàn);大模型產(chǎn)生的幻覺及偏見等等的挑戰(zhàn),見圖十。 

圖片

圖十  大模型訓(xùn)練面臨的挑戰(zhàn)(圖源——數(shù)字化助推器)
目前解決大模型訓(xùn)練所面臨的挑戰(zhàn)有下面一些方法:例如為了解決算法算力等問題可以使用更高效的硬件,如GPU、TPU(張量處理單元)或ASIC(應(yīng)用特定集成電路);通過將模型訓(xùn)練分散到多個計算節(jié)點上進行分布式訓(xùn)練,可以顯著加快訓(xùn)練速度;利用優(yōu)化算法以減少所需的計算量等;使用可再生能源為數(shù)據(jù)中心供電,以降低能源消耗和減少碳排放;等等。除此之外還常用搜索增強生成(RAG——Retrieval Augmentation Generation)、微調(diào)(Fine-tuning)和提示工程(Prompt Engineering)來解決在大型語言模型(LLM)的訓(xùn)練和應(yīng)用中出現(xiàn)的不同問題。所謂LLM微調(diào)是一個將預(yù)訓(xùn)練模型在較小、特定數(shù)據(jù)集上進一步訓(xùn)練的過程,目的是精煉模型的能力,提高其在特定任務(wù)或領(lǐng)域上的性能。微調(diào)的目的是將通用模型轉(zhuǎn)變?yōu)閷S媚P停瑥浐贤ㄓ妙A(yù)訓(xùn)練模型與特定應(yīng)用需求之間的差距,確保語言模型更貼近人類的期望,而所謂搜索增強生成RAG,它是微調(diào)的一種替代方法,它結(jié)合了自然語言生成和信息檢索。RAG確保語言模型通過外部最新知識或相關(guān)文檔提供信息來源。這種技術(shù)彌合了通用模型廣泛知識與最新知識信息需求之間的差距,RAG是事實隨時間演變情況下的重要技術(shù)。
通過應(yīng)用搜索增強生成可以解決以下問題:①通過應(yīng)用搜索增強生成可以解決長尾知識問題——大型語言模型往往在處理常見的、頻繁出現(xiàn)的問題時表現(xiàn)良好,但在處理常見、罕見或特定領(lǐng)域的問題時可能會遇到困難。通過增強檢索,可以將模型與外部知識源(如數(shù)據(jù)庫、互聯(lián)網(wǎng)等)結(jié)合起來,以提供準(zhǔn)確的信息和上下文;②通過應(yīng)用搜索增強生成可以提高非幻覺率——如前所述,大型語言模型有時會產(chǎn)生誤導(dǎo)性的、不真實的或“幻覺”的回答,可以通過增強檢索,驗證模型的回答,確保它們基于可靠和準(zhǔn)確的信息;③通過應(yīng)用搜索增強生成可以提高效率和響應(yīng)速度——對于某些問題,直接檢索相關(guān)信息可能比從頭開始生成回答更為高效。這可以減少計算時間并提高系統(tǒng)的響應(yīng)速度。
同樣,通過應(yīng)用微調(diào)可以解決以下問題:①通過微調(diào)可以使大模型適應(yīng)特定任務(wù)或領(lǐng)域——微調(diào)是一種使大型預(yù)訓(xùn)練模型適應(yīng)特定任務(wù)或數(shù)據(jù)集的方法。通過微調(diào),模型可以學(xué)習(xí)特定領(lǐng)域的細(xì)節(jié)和規(guī)則,從而在該領(lǐng)域表現(xiàn)得更好;②通過微調(diào)可以使大模型型減少偏見和勾覺——微調(diào)可以幫助模型減少在特定數(shù)據(jù)集上的偏見和過擬合;③通過在具有多樣性和代表性的數(shù)據(jù)集上進行微調(diào),模型可以學(xué)習(xí)更普遍和可泛化的特征;④通過微調(diào)可以使大模型提高性能和效率——微調(diào)通常可以提高模型在特定任務(wù)上的性能,因為它允許模型專注于學(xué)習(xí)與該任務(wù)最相關(guān)的特征。這可以減少計算資源和能源消耗,同時提高模型的準(zhǔn)確性和效率。
同樣,提示及提示工程(Prompt Engineering)在大型模型訓(xùn)練中的作用主要體現(xiàn)在以下幾個方面:①通過提示及提示工程可以引導(dǎo)模型理解和生成——提示工程通過設(shè)計和優(yōu)化輸入提示詞,引導(dǎo)模型生成高質(zhì)量、準(zhǔn)確和有針對性的輸出。這些提示詞實質(zhì)上是我們發(fā)給大模型的輸入(指令),模型會根據(jù)這些指令,結(jié)合其預(yù)訓(xùn)練的“知識”,輸出與指令相關(guān)的內(nèi)容;②通過提示及提示工程可以提高模型性能——對于基于轉(zhuǎn)換器的大型語言模型(如OpenAI的GPT系列),輸入提示在提高模型理解、回答問題、生成有用輸出等方面具有關(guān)鍵作用。通過構(gòu)建清晰、簡潔的問題,提供必要的上下文信息,或者使用間接、分步的引導(dǎo)方式,提示工程可以幫助模型更好地理解問題并生成更有價值的回答;③通過提示及提示工程可以促進人機交互——提示工程也是一種人機交互的方式。通過高質(zhì)量的提問,我們可以引導(dǎo)模型生成我們想要的輸出,這對于開發(fā)用戶友好、易于交互的AI系統(tǒng)具有重要意義。
最后,還需注意大模型LLM的推理準(zhǔn)確性和泛化能力是一個機器學(xué)習(xí)領(lǐng)域的研究問題,一般都需要從以下6個方面來探討,即①增加數(shù)據(jù)量——更多的數(shù)據(jù)能讓模型更充分地認(rèn)識所要識別的問題,學(xué)到更加共性的信息;②處理缺失值和異常值——訓(xùn)練數(shù)據(jù)中意外的缺失值和異常值通常會降低模型的準(zhǔn)確率,或使模型產(chǎn)生的結(jié)果出現(xiàn)偏差,最終導(dǎo)致預(yù)測不準(zhǔn);③使用正則化方法——正則化是一種防止模型過擬合的技術(shù),包括提前終止和模型集成等。提前終止是在泛化誤差指標(biāo)不再提升后,提前結(jié)束訓(xùn)練;④采用復(fù)雜模型——一些復(fù)雜的模型,如深度神經(jīng)網(wǎng)絡(luò),能夠更好地學(xué)習(xí)和表示數(shù)據(jù)的復(fù)雜特征,從而提高推理的準(zhǔn)確性和泛化能力;⑤數(shù)據(jù)增強:對數(shù)據(jù)進行增強可以擴充數(shù)據(jù)集,提高模型的泛化能力;⑥使用貝葉斯模型——貝葉斯模型能夠根據(jù)已有的數(shù)據(jù)進行概率推斷,對于新的、未知的數(shù)據(jù)有一定的預(yù)測能力,可以提高泛化能力。

二、 AI大模型在服裝制造業(yè)智能化轉(zhuǎn)型中的應(yīng)用


AI大模型事關(guān)人類生產(chǎn)工具的變革,事關(guān)一個國家制造業(yè)核心競爭力的重塑,事關(guān)經(jīng)濟的長期繁榮。AI大模型是重塑全球制造業(yè)競爭格局的新起點,AI大模型也是加速數(shù)實融合浪潮的又一次到來,其主要特征和目標(biāo)是制造業(yè)轉(zhuǎn)型的智能化。AI大模型將影響制造業(yè)發(fā)展格局,AI大模型將會融入制造業(yè)的研發(fā)設(shè)計、生產(chǎn)工藝、質(zhì)量管理、運營控制、營銷服務(wù)、組織協(xié)同和經(jīng)營管理等方面,見圖十一。

圖片

圖十一  大模型融入制造業(yè)(圖源:安筱鵬)
大模型分為通用大模型和專業(yè)大模型(圖四)。通用大模型是在大規(guī)模語料(互聯(lián)網(wǎng)、百科、電子書)上預(yù)訓(xùn)練完成,例如GPT,Bert。專業(yè)大模型是在通用大模型基礎(chǔ)上,通過微調(diào)或者提示工程使其善于完成某個下游任務(wù),例如,ChatGPT。根據(jù)Gartner預(yù)測,到2026 年,超過 80%的企業(yè)將使用生成式AI的API或大模型,或在生產(chǎn)環(huán)境中部署支持生成式AI的應(yīng)用,而在2023年初這一比例不到0.5%。所以生成式AI及大模型未來發(fā)展的空間非常巨大。生成式AI及大模型正在迅速走向應(yīng)用落地,生成式AI及大模型有望為全球經(jīng)濟貢獻約7萬億美元的價值,并將AI的總體經(jīng)濟效益提高50%左右;中國則有望貢獻其中約2萬億美元,將近全球總量的1/3。
面對這樣的形勢,由于我們服裝制造業(yè)存在對大模型的認(rèn)知不足,行業(yè)和企業(yè)的算力和數(shù)據(jù)樣本不足,以及對大模型應(yīng)用經(jīng)驗不足等原因,影響了對AI大模型的應(yīng)用,所以我們現(xiàn)在應(yīng)該奮起直追,認(rèn)知好和應(yīng)用好它。AI大模型應(yīng)用在服裝制造業(yè)轉(zhuǎn)型與智能化升級,主要要有以下幾個方面的認(rèn)知:
1) 大小模型協(xié)同是AI大模型賦能制造業(yè)的重要趨勢

圖片

圖十二  制造業(yè)中大小模型的應(yīng)用與協(xié)同
在服裝制造業(yè)轉(zhuǎn)型與智能化中應(yīng)用好大模型和小模型是一個重要的趨勢,見圖十二。大模型的代碼生成、CAD生成和泛化等能力強,而小模型完成單個場景特別任務(wù)又特別好,所以我們在服裝制造業(yè)轉(zhuǎn)型于智能化中主張兩者協(xié)同應(yīng)用。另外值得一提的是智能代理AI Agent是大小模型高度協(xié)同的重要載體,所以它將成為新的生產(chǎn)工具。前面說過AI Agent將LLM與其他模型、軟件等外部工具協(xié)同,能夠處理真實世界中的各種復(fù)雜任務(wù)。未來在制造業(yè)AI Agent主要由“感知系統(tǒng)+控制系統(tǒng)+執(zhí)行系統(tǒng)”組成。它不僅具有生成能力,還將同時具備任務(wù)理解、任務(wù)拆解、任務(wù)調(diào)度、執(zhí)行規(guī)劃、鏈條協(xié)同等能力。其中LLM將主要承擔(dān)指揮中心角色,類似人類“大腦”的角色,對接入AI Agent的數(shù)字化工具(比如工業(yè)軟件、工業(yè)機器人、數(shù)字人等)進行統(tǒng)一智能調(diào)度管理,實時在生產(chǎn)、管理、服務(wù)等場景中,由不同組合的數(shù)字化工具協(xié)同完成具體任務(wù)。
2) 大模型生成代碼的價值在于服裝制造業(yè)所用的軟件都需要基于AI大模型重新做一遍
由上面大模型LLM介紹可知,它能生成文本、圖片、代碼、語音和視頻,但在這些當(dāng)中生成代碼的價值往往被忽略被低估。其實要實現(xiàn)制造業(yè)智能化一定要將所有的軟件基于AI重新做一遍,這里包括所有Windows、Office等辦公軟件、企業(yè)用的MES、WMS、PLM、ERP、CRM、SCM、PLC、SCADA等工業(yè)軟件會被重新做一遍。所有軟件將由AI大模型驅(qū)動,這樣軟件才能從數(shù)字化或在線化走向真正的智能化。未來不但如此,所有的智能硬件如手機、計算機、智能家電、攝像頭、機器人、AGV小車、加工機械等也將被AI大模型驅(qū)動,見圖十三。

圖片

 圖十三  AI大模型驅(qū)動軟硬件(圖源:安筱鵬)
3)大模型用于服裝前瞻化設(shè)計
大模型可以生成創(chuàng)新性的產(chǎn)品設(shè)計方案,從而更好地輔助技術(shù)人員快速將設(shè)計構(gòu)思和意圖轉(zhuǎn)化為具體實施方案,生成多樣化設(shè)計方案。例如一般獨立設(shè)計師的初創(chuàng)品牌會結(jié)合AI繪畫Midjourney工具和AIGC大模型等工具,發(fā)揮自己的創(chuàng)意想象力,進行服裝版型設(shè)計。不過,版型設(shè)計對于AI大模型的能力要求是比較復(fù)雜的,既要獨一無二的創(chuàng)意,又需要結(jié)合自己的品牌風(fēng)格,只有設(shè)計師利用大模型進行微調(diào)和提示工程才能做到,其服裝版型設(shè)計結(jié)果見圖十四。又例如阿里巴巴開發(fā)的多模態(tài)大模型M6已成功應(yīng)用于犀牛服裝新制造,實現(xiàn)了文本到圖像生成等多種應(yīng)用案例。在傳統(tǒng)服裝設(shè)計過程中,設(shè)計師需要花費很長的時間設(shè)計衣服并進行線上樣款測試,但基于文本到圖像生成技術(shù),可以直接輸入流行的服裝款式描述到M6模型中生成相應(yīng)款式圖片。這項技術(shù)將原本冗長的設(shè)計流程壓縮了超過十倍的時間,目前已經(jīng)商業(yè)投產(chǎn),并且與三十多家服裝商家在去年雙十一期間成功地進行了合作。再如凌迪Style3D在應(yīng)用AI大模型技術(shù)打通了“AI+3D+AI”的路徑以后,在服裝商品企劃設(shè)計階段,幫助設(shè)計師運用AI大模型深度學(xué)習(xí)能力,通過以文生款、以款生款、線稿成款、融合創(chuàng)款、AI局部編輯、AI試衣等功能,快速創(chuàng)造、還原、修改設(shè)計創(chuàng)意,加速設(shè)計靈感迸發(fā)。

圖片

圖十四 大模型微調(diào)與提示后的設(shè)計(圖源:WWD CHINA)
4)AI大模型能彌合服裝制造業(yè)的數(shù)據(jù)流斷點

AI大模型帶來了新的人機交互方式,未來大模型將能操控一切,深刻改變生產(chǎn)制造等的方式。過去,在我們服裝制造業(yè)進行數(shù)字化轉(zhuǎn)型是以傳統(tǒng)軟件的方式達到數(shù)據(jù)能夠自動流動為目的,但從客戶需求產(chǎn)品到獲得產(chǎn)品整個過程中,制造企業(yè)在多個環(huán)節(jié)中存在數(shù)據(jù)流斷點,往往需要工程師來開發(fā)各種工藝軟件和流程軟件,現(xiàn)在有了AI大模型將改變這一狀況,它使現(xiàn)在基于文本的信息流轉(zhuǎn)變?yōu)榛谀P偷男畔⒘鳎妶D十五。

圖片 

圖十五 服裝制造業(yè)基于模型的信息流(圖源:安筱鵬)
基于AI大模型的自然語言交互能力,為制造業(yè)企業(yè)內(nèi)部各環(huán)節(jié)之間的實時、泛在的連接提供了軟件開發(fā)、交互的新方式,降低了工藝和流程的軟件開發(fā)門檻、提高了效率,彌合了企業(yè)數(shù)據(jù)流動過程中的無數(shù)個斷點。這一功能大大降低了工藝開發(fā)人員的門檻,提高了開發(fā)效率和質(zhì)量。從全局來看,不僅能避免出現(xiàn)數(shù)據(jù)斷點,減少人工干預(yù)帶來的影響,而且提高了整個系統(tǒng)的智能化水平。
5)AI大模型能在服裝制造業(yè)生產(chǎn)線上實現(xiàn)智能化調(diào)控
智能化調(diào)控在現(xiàn)代服裝制造業(yè)生產(chǎn)線中,需要對多個關(guān)鍵節(jié)點進行智能化調(diào)度和控制,以提升產(chǎn)線運行效率。人工智能大模型可以通過分析多樣化的歷史數(shù)據(jù),更好地理解諸如生產(chǎn)需求、資源可用性、任務(wù)優(yōu)先級等工業(yè)調(diào)度任務(wù)中的復(fù)雜關(guān)系,從而優(yōu)化各節(jié)點的任務(wù)分配和調(diào)度,提高生產(chǎn)效率和靈活性。這一調(diào)控典型做法是在SCADA(數(shù)據(jù)采集與監(jiān)視控制系統(tǒng))場景下,利用大模型在生產(chǎn)線場景下的編程接口和生態(tài)庫,生成工業(yè)邏輯代碼(交互、建模、SQL開發(fā))并自動集成到工業(yè)軟件中,用它來進行閉環(huán)優(yōu)化控制。
6)AI大模型能用于服裝定制化服務(wù)
大模型可以憑借在文本生成、圖像生成和自然語言對話等方面的優(yōu)勢,使服裝定制服務(wù)不僅僅是問與答,可讓客戶直接根據(jù)自己需要進行修改,這樣就進一步提升了客戶忠誠度和滿意度。例如阿里巴巴的多模態(tài)大模型M6,就是利用提供文本到圖像生成的能力,根據(jù)客戶需求,不斷完善其生成結(jié)果。在給定一張衣服圖像時,用戶可以在保留其領(lǐng)子后進一步進行個性化改進,每改進一次可以生成改進一部分的token,隨后進行多次迭代后,其生成的衣服圖像結(jié)果就會越來越好,直到客戶滿意。
7)90%以上的中小微服裝制造業(yè)數(shù)智化轉(zhuǎn)型可以利用AI大模型服務(wù)平臺
大模型的出現(xiàn)為廣大中小微服裝制造業(yè)數(shù)智化轉(zhuǎn)型和高質(zhì)量發(fā)展帶來更好的技術(shù)支撐。針對服裝制造業(yè)做大模型的阿里巴巴、海爾、創(chuàng)新奇智、商湯科技等,他們的推出的大模型平臺除了自己應(yīng)用外,還給更多的中小微制造企業(yè)服務(wù)。除此之外,我國還發(fā)展了一批面向更多中小微企業(yè)的大模型平臺服務(wù)企業(yè)。例如廣州致景公司專為服裝設(shè)計建模和服裝工廠管理的服務(wù);山東橙色云專為企業(yè)設(shè)計承接和轉(zhuǎn)包大模型平臺,現(xiàn)在已經(jīng)有上萬家中小微企業(yè)在他們平臺上發(fā)布需求服務(wù)了;深圳云工科技,利用大模型平臺專門為企業(yè)需要訂貨服務(wù),僅去年下半年就下單了100億的交易;江蘇智云天工和三一重工做了一個虛擬工廠和供應(yīng)鏈管理大模型平臺,可為企業(yè)做到生產(chǎn)流程最優(yōu)和零庫存或少庫存管理等等。
8)利用AI大模型對衣片或成衣進行質(zhì)量檢測
衣片和成衣的質(zhì)量檢測主要涉及對圖像和視覺信息的處理和分析,比如檢測衣片上的瑕疵、線頭、污漬等,或者檢測成衣的縫合質(zhì)量、尺寸是否符合標(biāo)準(zhǔn)等。這些任務(wù)都需要對圖像進行深入的分析和理解,一般使用CV大模型更為適合。AI大模型在衣片和成衣質(zhì)量檢測中,需要使用到一些特定的硬件設(shè)備和設(shè)施,如高性能計算機、圖像采集設(shè)備、數(shù)據(jù)存儲設(shè)備以及數(shù)據(jù)傳輸設(shè)備等。AI大模型在衣片和成衣的質(zhì)量檢測上一般是通過以下步驟進行的:需要收集大量的衣片和成衣圖像數(shù)據(jù),并對這些數(shù)據(jù)進行標(biāo)注,以便訓(xùn)練模型能夠識別不同的質(zhì)量問題和缺陷。這些數(shù)據(jù)可以來自生產(chǎn)過程中的實際拍攝,也可以從其他來源獲取;使用標(biāo)注好的數(shù)據(jù)來訓(xùn)練AI大模型。在訓(xùn)練過程中,模型會學(xué)習(xí)如何識別衣片和成衣中的各種質(zhì)量問題,如污漬、破損、尺寸不符等。訓(xùn)練好的模型可以具有很高的準(zhǔn)確性和可靠性;將訓(xùn)練好的模型部署到實際的生產(chǎn)環(huán)境中。這可以通過將模型集成到現(xiàn)有的質(zhì)量檢測系統(tǒng)中,或者開發(fā)新的質(zhì)量檢測系統(tǒng)來實現(xiàn)。在生產(chǎn)線上,可以通過自動拍攝衣片和成衣的圖像,然后將這些圖像輸入到模型中,模型會自動識別出其中的質(zhì)量問題。我國“AI+制造”領(lǐng)軍企業(yè)創(chuàng)新奇智的“奇智孔明AInnoGC工業(yè)大模型”和“AInnoGC工業(yè)大模型技術(shù)平臺”可以為服裝制造業(yè)衣片和成衣中的各種質(zhì)量檢測服務(wù)。

三、結(jié)束語


1)在2024年3月5日發(fā)布的政府工作報告中,首次提出開展“人工智能+”行動。在當(dāng)前由AI大模型驅(qū)動的新一輪人工智能熱潮下,“人工智能+”行動的提出,是順應(yīng)潮流,重大利好。隨著“人工智能+”行動的開展,政產(chǎn)學(xué)研用都將推進“人工智能+”在各行各業(yè)落地,經(jīng)濟社會將加速進入由人工智能驅(qū)動的AI大模型新時代。“人工智能+”的到來,將促進很多人工智能“新物種”的誕生,如AI Agent、人形機器人、無人駕駛汽車等等,這些將加速智能經(jīng)濟的快速發(fā)展壯大。時代的車輪滾滾向前,人工智能浪潮已勢不可擋,我們制造企業(yè)只有積極擁抱它才能生存。

2)我很贊同AI科學(xué)家賈揚清說的一段話,借來作為一個結(jié)束語,他說:“目前國產(chǎn)大模型中,主要分為三類:一是原創(chuàng)大模型;二是套殼國外的開源大模型;三是拼裝大模型,也就是把過去的小模型們拼在一起,變成參數(shù)量看起來很大的“大模型”。其中,原創(chuàng)大模型數(shù)量最少,做原創(chuàng)大模型需要有很強的技術(shù)積累,且要有持續(xù)的高投入,風(fēng)險很大,因為一旦模型沒有足夠強的競爭力,這些大規(guī)模投入就會打了水漂,到商業(yè)化落地階段,客戶也不太會在意是否原創(chuàng),有用就行,甚至不少客戶會因為成本更低,更愿意選擇非原創(chuàng)的技術(shù)。

3)服裝制造業(yè)要使AI大模型應(yīng)用落地,一是要面向企業(yè)應(yīng)用場景推進AI大模型技術(shù)攻關(guān);二是要建立和收集規(guī)模化的大模型工業(yè)數(shù)據(jù)資源;三是要完善AI大模型在制造企業(yè)的應(yīng)用性能評測機制;四是要選好和做好AI大模型應(yīng)用企業(yè)試點示范工作。

2024年4月稿

來源:中國服裝協(xié)會


【免責(zé)聲明:本文版權(quán)歸原作者所有。為尊重版權(quán),我們盡量標(biāo)注文章來源,若不愿被轉(zhuǎn)載或涉及侵權(quán),請及時通過在線客服和郵箱聯(lián)系,郵箱地址:wutongtai@wttai.com,我們將第一時間予以刪除】