AIGC(全稱:Artificial Intelligence Generated Content,中文名:人工智能生成內(nèi)容),是繼專業(yè)生產(chǎn)內(nèi)容(PGC, Professional-generated Content)、用戶生產(chǎn)內(nèi)容(UGC, User-generated Content)之后的新型內(nèi)容創(chuàng)作方式。
AIGC從20世紀(jì)50年代開始發(fā)展。其興起源于深度學(xué)習(xí)技術(shù)的快速突破和日益增長(zhǎng)的數(shù)字內(nèi)容供給需求。
與所有人工智能技術(shù)一樣,AIGC的能力由機(jī)器學(xué)習(xí)模型提供,這些模型是基于大量數(shù)據(jù)進(jìn)行預(yù)先訓(xùn)練的大模型。AIGC可以在對(duì)話、故事、圖像、視頻和音樂(lè)制作等方面,打造新的數(shù)字內(nèi)容生成與交互形式。可以應(yīng)用于媒體、電子商務(wù)、影視、金融、醫(yī)療等多個(gè)行業(yè)。
概述
對(duì)AIGC的界定,尚無(wú)統(tǒng)一規(guī)范的定義。中國(guó)產(chǎn)學(xué)研各界對(duì)于AIGC的理解是“即專業(yè)生成器(Professional Generated Content,PGC)和用戶生成內(nèi)容(User Generated Content,UGC)之后,利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式”。具體而言,AIGC通過(guò)綜合運(yùn)用自然語(yǔ)言處理、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等人工智能新技術(shù),以智能體為內(nèi)容生產(chǎn)主體,在人類需求驅(qū)動(dòng)下,對(duì)已有高質(zhì)量信息內(nèi)容進(jìn)行深度學(xué)習(xí)和理解后,生成人類可感知的媒體內(nèi)容(如文字、圖片、音視頻等)及不可直接感知但具有重要作用的數(shù)據(jù)內(nèi)容(如代碼、模型等)。在國(guó)際上對(duì)應(yīng)的術(shù)語(yǔ)是“人工智能合成媒體(人工智慧Generated Media 或 Synthetie Media)”,其定義是“通過(guò)人工智能算法對(duì)數(shù)據(jù)庫(kù)或媒體進(jìn)行生產(chǎn)、操控和修改的統(tǒng)稱”。綜上所述,AIGC可從多重維度界定:既是基于內(nèi)容生產(chǎn)者視角分類的一類內(nèi)容,也是一種內(nèi)容生產(chǎn)方式,同時(shí)屬于用于內(nèi)容自動(dòng)化生成的技術(shù)集合。AIGC基于大型預(yù)訓(xùn)練模型等人工智能技術(shù),通過(guò)對(duì)已有數(shù)據(jù)提取規(guī)律并實(shí)現(xiàn)泛化能力,其核心機(jī)制是利用訓(xùn)練完成的人工智能模型,根據(jù)用戶輸入的提示或指令,完成高質(zhì)量?jī)?nèi)容的快速生成。典型應(yīng)用場(chǎng)景涵蓋新聞稿件撰寫、廣告素材設(shè)計(jì)、編程開發(fā)輔助等領(lǐng)域。
發(fā)展背景
AIGC的興起源于深度學(xué)習(xí)技術(shù)的快速突破和日益增長(zhǎng)的數(shù)字內(nèi)容供給需求。
技術(shù)進(jìn)步
技術(shù)進(jìn)步驅(qū)動(dòng)AIGC可用性不斷增強(qiáng)。在人工智能發(fā)展初期,雖然對(duì)AIGC進(jìn)行了一些初步嘗試,但受限各種因素,相關(guān)算法多基于預(yù)先定義的規(guī)則或者模版,還遠(yuǎn)遠(yuǎn)算不上是智能創(chuàng)作的程度。近年來(lái),基于深度學(xué)習(xí)算法的AIGC技術(shù)快速迭代,徹底打破了原來(lái)模板化、公式化、小范圍的局限,可以快速、靈活地生成不同模態(tài)的數(shù)據(jù)內(nèi)容。
海量需求
海量需求牽引AIGC應(yīng)用落地。隨著數(shù)字經(jīng)濟(jì)與實(shí)體經(jīng)濟(jì)融合程度不斷加深,以及Meta、微軟、字節(jié)跳動(dòng)等平臺(tái)型巨頭的數(shù)字化場(chǎng)景向元宇宙轉(zhuǎn)型,人類對(duì)數(shù)字內(nèi)容總量和豐富程度的整體需求不斷提供。數(shù)字內(nèi)容的生產(chǎn)取決于想象能力、制造能力和知識(shí)水平;傳統(tǒng)內(nèi)容生產(chǎn)手段受限于人類能力有限的制造能力,逐漸無(wú)法滿足消費(fèi)者對(duì)于數(shù)字內(nèi)容的消費(fèi)需求,供給側(cè)產(chǎn)能瓶頸日益凸顯。基于以上原因,AIGC在各行業(yè)中越來(lái)越多廣泛的應(yīng)用,市場(chǎng)潛力逐漸顯現(xiàn)。
歷史沿革
1950年,艾倫?圖靈(Alan Turing)在其論文《計(jì)算機(jī)器與智能(Computing Machinery and Intelligence )》13中提出了著名的“圖靈測(cè)試”,給出了判定機(jī)器是否具有“智能”的試驗(yàn)方法,即機(jī)器是否能夠模仿人類的思維方式來(lái)“生成”內(nèi)容繼而與人交互。?某種程度上來(lái)說(shuō),人工智能從那時(shí)起就被寄予了用于內(nèi)容創(chuàng)造的期許。經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展,隨著數(shù)據(jù)快速積累、算力性能提升和算法效力增強(qiáng),今天的人工智能不僅能夠與人類進(jìn)行互動(dòng),還可以進(jìn)行寫作、編曲、繪畫、視頻制作等創(chuàng)意工作。 2018年,人工智能生成的畫作在佳士得拍賣行以43.25萬(wàn)美元成交,成為世界上首個(gè)出售的人工智能藝術(shù)品,引發(fā)各界關(guān)注。隨著人工智慧越來(lái)越多地被應(yīng)用于內(nèi)容創(chuàng)作,人工智能生成內(nèi)容 (Arificial Intelligence Generated Content,簡(jiǎn)稱AIGC)的概念悄然興起。
結(jié)合人工智能的演進(jìn)歷程,AIGC 的發(fā)展大致可以分為三個(gè)階段即:早期萌芽階段 (20 世紀(jì) 50 年代至 90 年代中期)、沉淀積累階段(20 世紀(jì) 90 年代中期至 21 世紀(jì) 10 年代中期),以及快速發(fā)展階段(21 世紀(jì) 10 年代中期至今 )
早期萌芽階段
1950年-1990年,科技水平有限,AIGC僅限于小范圍實(shí)驗(yàn)。1957 年,萊杰倫 希勒 (Lejaren Hiller) 和倫納德·艾薩克森(LeonardIsaacson)通過(guò)將計(jì)算機(jī)程序中的控制變量換成音符完成了歷史上第一支由計(jì)算機(jī)創(chuàng)作的音樂(lè)作品--弦樂(lè)四重奏《依利亞克組曲 (Illiac Suite )》。1966 年,約瑟夫 魏岑鮑姆 (JosephWeizenbaum)和肯尼斯 科爾比 (Kenneth Colby) 共同開發(fā)了世界第一款可人機(jī)對(duì)話的機(jī)器人“伊莉莎 ( Eliza)”,其通過(guò)關(guān)鍵字掃描和重組完成交互任務(wù)。80 年代中期,IBM 基于隱形馬爾科夫鏈模型( Hidden Markov Model,HMM)創(chuàng)造了語(yǔ)音控制打字機(jī)“坦戈拉( Tangora )”,能夠處理約 20000 個(gè)單詞。80 年代末至 90 年代中由于高昂的系統(tǒng)成本無(wú)法帶來(lái)可觀的商業(yè)變現(xiàn),各國(guó)政府紛紛減少了在人工智能領(lǐng)域的投入,AIGC 沒有取得重大突破。
沉淀積累階段
1990年-2010年,AIGC 從實(shí)驗(yàn)性向?qū)嵱眯灾饾u轉(zhuǎn)變。2006 年,深度學(xué)習(xí)算法取得重大突破,同時(shí)期圖形處理器( Graphics Processing Unit,GPU)、張量處理器( Tensor Processing UnitTPU) 等算力設(shè)備性能不斷提升,互聯(lián)網(wǎng)使數(shù)據(jù)規(guī)模快速膨脹并為各類人工智慧算法提供了海量訓(xùn)練數(shù)據(jù),使人工智能發(fā)展取得了顯著的進(jìn)步。但是 AIGC 依然受限于算法瓶頸,無(wú)法較好地完成創(chuàng)作任務(wù)應(yīng)用仍然有限,效果有待提升。2007 年,紐約大學(xué)人工智能研究員羅斯·古德溫裝配的人工智能系統(tǒng)通過(guò)對(duì)公路旅行中的一切所見所聞進(jìn)行記錄和感知,撰寫出小說(shuō)《1 The Road》。作為世界第一部完全由人工智能創(chuàng)作的小說(shuō),其象征意義遠(yuǎn)大于實(shí)際意義,整體可讀性不強(qiáng)拼寫錯(cuò)誤、辭藻空洞、缺乏邏輯等缺點(diǎn)明顯。2012 年,微軟公開展示了一個(gè)全自動(dòng)同聲傳譯系統(tǒng),基于深層神經(jīng)網(wǎng)絡(luò) ( Deep NeuralNetwork,DNN)可以自動(dòng)將英文演講者的內(nèi)容通過(guò)語(yǔ)音識(shí)別、語(yǔ)言翻譯、語(yǔ)音合成等技術(shù)生成中文語(yǔ)音
快速發(fā)展階段
2010年-2023年,屬于快速發(fā)展階段。自2014 年起,隨著以生成式對(duì)抗網(wǎng)絡(luò) ( Generative Adversarial Network,GAN)為代表的深度學(xué)習(xí)算法的提出和迭代更新,AIGC 迎來(lái)了新時(shí)代,生成內(nèi)容百花齊放,效果逐漸逼真直至人類難以分辨。2017 年,微軟人工智能少女“小冰”推出了世界首部 100%由人工智能創(chuàng)作的詩(shī)集《陽(yáng)光失了玻璃窗》。2018年,英偉達(dá)發(fā)布的 StyleGAN 模型可以自動(dòng)生成圖片,目前已升級(jí)到第四代模型 StyleGAN-XL,其生成的高分辨率圖片人眼難以分辨真假。2019 年,DeepMind 發(fā)布了DVD-GAN 模型用以生成連續(xù)視頻,在草地、廣場(chǎng)等明確場(chǎng)景下表現(xiàn)突出。2021 年,OpenAI 推出了 DALL-E并于一年后推出了升級(jí)版本 DALL-E-2,主要應(yīng)用于文本與圖像的交互生成內(nèi)容,用戶只需輸入簡(jiǎn)短的描述性文字,DALL-E-2 即可創(chuàng)作出相應(yīng)極高質(zhì)量的卡通、寫實(shí)、抽象等風(fēng)格的繪畫作品。
美國(guó)時(shí)間2023年12月6日,包括META在內(nèi),谷歌、美國(guó)AMD(AMD)等多家科技巨頭發(fā)布了生成式AI相關(guān)產(chǎn)品。
2025年4月16日,《2025中國(guó)AIGC應(yīng)用全景圖譜報(bào)告》在北京正式對(duì)外發(fā)布。從模型層、C端產(chǎn)品層、B端應(yīng)用層和開發(fā)工具層四大角度出發(fā),報(bào)告總結(jié)了國(guó)內(nèi)AIGC應(yīng)用現(xiàn)狀與演變方向。在模型層方面,新模型架構(gòu)和訓(xùn)練策略優(yōu)化在推動(dòng)大模型普惠,中國(guó)國(guó)內(nèi)大模型的競(jìng)爭(zhēng)重點(diǎn)也在從“技術(shù)有無(wú)”轉(zhuǎn)向代差級(jí)別領(lǐng)先能力,推動(dòng)創(chuàng)新重點(diǎn)開始面向落地場(chǎng)景和應(yīng)用。報(bào)告還認(rèn)為,截至2025年,中國(guó)AI產(chǎn)品第一輪變革基本完成,賽道探索已基本結(jié)束,頭部格局相對(duì)清晰。報(bào)告也認(rèn)為,AI技術(shù)的能力涌現(xiàn)依然在持續(xù),變量依然具備顛覆式變局的能力。
相關(guān)技術(shù)
技術(shù)原理
智能數(shù)字內(nèi)容孿生
主要目標(biāo)是建立現(xiàn)實(shí)世界到數(shù)字世界的映射。內(nèi)容孿生主要分為內(nèi)容的增強(qiáng)與轉(zhuǎn)譯。增強(qiáng)即對(duì)數(shù)字內(nèi)容修復(fù)、去噪、細(xì)節(jié)增強(qiáng)等。轉(zhuǎn)譯即對(duì)數(shù)字內(nèi)容轉(zhuǎn)換如翻譯等。該技術(shù)旨在將現(xiàn)實(shí)世界中的內(nèi)容進(jìn)行智能增強(qiáng)與智能轉(zhuǎn)譯,更好的完成現(xiàn)實(shí)世界到數(shù)字世界映射。可應(yīng)用于圖像超分、語(yǔ)音轉(zhuǎn)字幕、文字轉(zhuǎn)語(yǔ)音等。
智能數(shù)字內(nèi)容編輯
主要目的是建立數(shù)字世界與現(xiàn)實(shí)世界的雙向交互。智能數(shù)字內(nèi)容編輯通過(guò)對(duì)內(nèi)容的理解以及屬性控制,進(jìn)而實(shí)現(xiàn)對(duì)內(nèi)容的修改。如在計(jì)算機(jī)視覺領(lǐng)域,通過(guò)對(duì)視頻內(nèi)容的理解實(shí)現(xiàn)不同場(chǎng)景視頻片段的剪輯。通過(guò)人體部位檢測(cè)以及目標(biāo)衣服的變形控制與截?cái)嗵幚恚瑢⒛繕?biāo)衣服覆蓋至人體部位,實(shí)現(xiàn)虛擬試衣。在語(yǔ)音信號(hào)處理領(lǐng)域,通過(guò)對(duì)音頻信號(hào)分析,實(shí)現(xiàn)人聲與背景聲分離。可應(yīng)用于視頻場(chǎng)景剪輯、虛擬試衣、人聲分離等。
智能數(shù)字內(nèi)容生成
主要目標(biāo)是讓人工智能算法具備內(nèi)容創(chuàng)作和自我演化的能力,形成的AIGC產(chǎn)品具備類似甚至超越人的創(chuàng)作能力。智能數(shù)字內(nèi)容生成通過(guò)從中學(xué)習(xí)抽象概念,并通過(guò)概念的組合生成全新的內(nèi)容。如AI繪畫,從海量繪畫中學(xué)習(xí)作品不同筆法、內(nèi)容、藝術(shù)風(fēng)格,并基于學(xué)習(xí)內(nèi)容重新生成特定風(fēng)格的繪畫。采用此方式,人工智能在文本創(chuàng)作、和詩(shī)詞創(chuàng)作中取得了不錯(cuò)表現(xiàn)。再比如,在跨模態(tài)領(lǐng)域,通過(guò)輸入文本輸出特定風(fēng)格與屬性的圖像,不僅能夠描述圖像中主體的數(shù)量、形狀、顏色等屬性信息,而且能夠描述主體的行為、動(dòng)作以及主體之間的關(guān)系。可應(yīng)用于圖像生成(AI繪畫)、文本生成(AI寫作、ChatBot)、視頻生成、多模態(tài)生成等。
核心算法
早期的 AIGC 技術(shù)主要依據(jù)事先指定的模板或者規(guī)則,進(jìn)行簡(jiǎn)單的內(nèi)容制作與輸出,與靈活且真實(shí)的內(nèi)容生成有較大的差距。人工智能算法的不斷迭代是 AIGC 發(fā)展進(jìn)步的源動(dòng)力。深度學(xué)習(xí)算法在感知、認(rèn)知、模仿、生成等方向的基礎(chǔ)能力決定了 AIGC 技術(shù)所能創(chuàng)作的生產(chǎn)力。
不同于傳統(tǒng)人工智能算法,深度學(xué)習(xí)中的損失函數(shù)和梯度下降算法可以靈活快速的調(diào)整深度神經(jīng)網(wǎng)絡(luò)中的參數(shù),從而實(shí)現(xiàn)從數(shù)據(jù)中進(jìn)行學(xué)習(xí)功能。2013 年,深度變分自編碼器的提出讓AIGC技術(shù)能力有了極大的進(jìn)步。對(duì)于給定的神經(jīng)網(wǎng)絡(luò),深度變分自編碼器要求網(wǎng)絡(luò)的輸出是對(duì)于輸入內(nèi)容的重建,通過(guò)重參數(shù)化等技巧,網(wǎng)絡(luò)在重建過(guò)程中學(xué)習(xí)訓(xùn)練數(shù)據(jù)的統(tǒng)計(jì)分布。在測(cè)試階段,變分自編碼器通過(guò)在學(xué)習(xí)到的統(tǒng)計(jì)分布中進(jìn)行采樣,首次能比穩(wěn)定的生成從未觀測(cè)過(guò)的低分辨率圖像。2014 年,一種新的博弈學(xué)習(xí)范式伴隨著生成對(duì)抗網(wǎng)絡(luò)被提出。生成對(duì)抗網(wǎng)絡(luò)由一個(gè)生成器和一個(gè)判別器組成,判別器致力于不斷尋找生成數(shù)據(jù)和真實(shí)數(shù)據(jù)間的不同,生成器根據(jù)判別器的反饋不斷完善自身,以求生成真假難辨的內(nèi)容。得益于雙方博弈的學(xué)習(xí)策略,生成內(nèi)容的真實(shí)性和清晰度都得到了極大的提升,生成對(duì)抗網(wǎng)絡(luò)也被應(yīng)用于很多內(nèi)容生成的具體應(yīng)用。
的結(jié)構(gòu)升級(jí)是推動(dòng) AIGC 快速發(fā)展的另一主要因素。深度神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和模型大小呈正相關(guān),伴隨著模型參數(shù)量的增加,相對(duì)應(yīng)深度神經(jīng)網(wǎng)絡(luò)的能力一般會(huì)取得大幅提升。但是越大規(guī)模神經(jīng)網(wǎng)絡(luò)往往意味著更大的訓(xùn)練難度,因此的結(jié)構(gòu)設(shè)計(jì)顯得尤為關(guān)鍵。從早期的玻爾茲曼機(jī),多層感知機(jī),卷積神經(jīng)網(wǎng),到深度殘差網(wǎng)絡(luò)和 Transformer 大模型,網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)化帶來(lái)了深度學(xué)模型參數(shù)量從幾萬(wàn)到數(shù)千億躍,模型層數(shù)也從開始的個(gè)位數(shù)逐步發(fā)展到成百上千。深度學(xué)習(xí)模型規(guī)模上的量變引起了 AIGC 技術(shù)能力的質(zhì)變,在新型網(wǎng)絡(luò)結(jié)構(gòu)的加持下,上述的生成對(duì)抗網(wǎng)絡(luò)等算法開始能生成超高清晰度的視頻,高質(zhì)量的文本段落和優(yōu)美靈動(dòng)的樂(lè)曲旋律。
模型結(jié)構(gòu)
AIGC 技術(shù)已經(jīng)從最初追求生成內(nèi)容的真實(shí)性的基本要求,發(fā)展到滿足生成內(nèi)容多樣性、可控性的進(jìn)階需求,并開始追求生成內(nèi)容的組合性。大模型具備易擴(kuò)展性,能夠?qū)崿F(xiàn)跨模態(tài)的知識(shí)沉淀,以大模型為基礎(chǔ)模型,通過(guò)大模型小型化技術(shù)使得人工智能在小數(shù)據(jù)集場(chǎng)景下也能具備優(yōu)秀的理解、生成和泛化能力。
視覺大模型
以圖像、視頻為代表的視覺數(shù)據(jù)是互聯(lián)網(wǎng)時(shí)代信息的主要載體之一,這些視覺信息時(shí)刻記錄著物理世界的狀態(tài),并在不斷傳播和二次創(chuàng)作的過(guò)程中,反映人的想法、觀念和價(jià)值主張。賦以人工智能模型感知并理解這些海量的視覺數(shù)據(jù)的能力,是實(shí)現(xiàn)人工智能生成數(shù)字內(nèi)容、數(shù)字孿生的基礎(chǔ);感知能力的提升,是實(shí)現(xiàn)生成視覺內(nèi)容語(yǔ)義明確、內(nèi)涵豐富、效果逼真的前提。
以視覺 Transformer (ViT,一種神經(jīng)網(wǎng)絡(luò)模型)為代表的新型神經(jīng)網(wǎng)絡(luò),因其優(yōu)異的性能、模型的易擴(kuò)展性、計(jì)算的高并行性,成為視覺領(lǐng)域的基礎(chǔ)網(wǎng)絡(luò)架構(gòu),并且逐漸發(fā)展出來(lái)十億甚至百億參數(shù)規(guī)模的模型。無(wú)監(jiān)督學(xué)習(xí)技術(shù),包括對(duì)比式自監(jiān)督學(xué)習(xí)(例如SimCLR 和 MoCo 系列技術(shù))和生成式自監(jiān)督學(xué)習(xí)(例如 MAE 技術(shù)),能夠大幅降低訓(xùn)練模型所需的有標(biāo)注數(shù)據(jù)的數(shù)量。經(jīng)過(guò)無(wú)監(jiān)督預(yù)訓(xùn)練的深度神經(jīng)網(wǎng)絡(luò)模型,僅需要在少量的有標(biāo)注樣本上經(jīng)過(guò)微調(diào)學(xué)習(xí),即可在多種場(chǎng)景,線上線下均取得優(yōu)異的性能。近年來(lái)基于Transformer 衍生出來(lái)一系列網(wǎng)絡(luò)結(jié)構(gòu),例如 Swin Transformer、ViTAE Transformer。通過(guò)將人類先驗(yàn)知識(shí)引入網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì),使得這些模型具有了更快的收斂速度、更低的計(jì)算代價(jià)、更多的特征尺度、更強(qiáng)的泛化能力,從而能更好地學(xué)習(xí)和編碼海量數(shù)據(jù)中蘊(yùn)含的知識(shí)。
這些新型的大模型架構(gòu),通過(guò)無(wú)監(jiān)督預(yù)訓(xùn)練和微調(diào)學(xué)習(xí)的范式,在圖像分類、目標(biāo)檢測(cè)、語(yǔ)義分割、姿態(tài)估計(jì)、圖像編輯以及遙感圖像解譯等多個(gè)感知任務(wù)上取得了相比于過(guò)去精心設(shè)計(jì)的多種算法模型更加優(yōu)異的性能和表現(xiàn),有望成為基礎(chǔ)視覺模型(FoundationVision Model),顯著提升場(chǎng)景感知能力,助力 AIGC 領(lǐng)域的發(fā)展。
語(yǔ)言大模型
作為人類文明的重要記錄方式,語(yǔ)言和文字記錄了人類社會(huì)的歷史變遷、科學(xué)技術(shù)和知識(shí)文化等。利用人工智能技術(shù)對(duì)海量語(yǔ)言、文本數(shù)據(jù)進(jìn)行信息挖掘和內(nèi)容理解是 AIGC 技術(shù)的關(guān)鍵一環(huán)。一方面,語(yǔ)言模型的訓(xùn)練和學(xué)習(xí)是進(jìn)行文本生成的核心基礎(chǔ);另一方面,學(xué)習(xí)并理解人類語(yǔ)言將大幅豐富數(shù)字內(nèi)容的生產(chǎn)能力,創(chuàng)新、豐富數(shù)字內(nèi)容的生產(chǎn)方式。
對(duì)于傳統(tǒng)自然語(yǔ)言處理技術(shù)的普遍問(wèn)題,基于語(yǔ)言的大模型技術(shù)可以充分利用海量無(wú)標(biāo)注文本進(jìn)行預(yù)訓(xùn)練,從而賦予文本大模型在小數(shù)據(jù)集、零數(shù)據(jù)集場(chǎng)景下的理解和生成能力。基于大規(guī)模預(yù)訓(xùn)練的語(yǔ)言模型不僅能夠在情感分析、語(yǔ)音識(shí)別、信息抽取、閱讀理解等文本理解場(chǎng)景中表現(xiàn)出色,而且同樣適用于圖片描述生成、廣告生成、書稿生成、對(duì)話生成等文本生成場(chǎng)景。
基于語(yǔ)言的超級(jí)深度學(xué)習(xí)技術(shù)的發(fā)展趨勢(shì)主要體現(xiàn)在訓(xùn)練模型的數(shù)據(jù)量日益增大、數(shù)據(jù)種類也更加豐富,模型規(guī)模增大、參數(shù)量以指數(shù)倍增加。通過(guò)不斷構(gòu)建語(yǔ)義理解能力增強(qiáng)、邏輯知識(shí)可抽象學(xué)習(xí)、同時(shí)適用于多種任務(wù)的語(yǔ)言大模型,將會(huì)對(duì) AIGC 場(chǎng)景中的各項(xiàng)認(rèn)知應(yīng)用產(chǎn)生極大價(jià)值。
多模態(tài)大模型
在日常生活中,視覺和語(yǔ)言是最常見且重要的兩種模態(tài),視覺大模型可以構(gòu)建出人工智能更加強(qiáng)大的環(huán)境感知能力,而語(yǔ)言大模型則可以學(xué)習(xí)到人類文明的抽象概念以及認(rèn)知的能力。多模態(tài)大模型的出現(xiàn),讓融合性創(chuàng)新成為可能,豐富了 AIGC 技術(shù)可應(yīng)用的廣度。對(duì)于包含多個(gè)模態(tài)的信息,多模態(tài)大模型則致力于處理不同模態(tài)、不同來(lái)源、不同任務(wù)的數(shù)據(jù)和信息,從而滿足 AIGC 場(chǎng)景下新的創(chuàng)作需求和應(yīng)用場(chǎng)景。
多模態(tài)大模型擁有兩種能力,一個(gè)是尋找到不同模態(tài)數(shù)據(jù)之間的對(duì)應(yīng)關(guān)系,例如將一段文本和與之對(duì)應(yīng)的圖片聯(lián)系起來(lái);另一個(gè)是實(shí)現(xiàn)不同模態(tài)數(shù)據(jù)間的相互轉(zhuǎn)化與生成,比如根據(jù)一張圖片生成對(duì)應(yīng)的語(yǔ)言描述。為了尋找到不同模態(tài)數(shù)據(jù)之間的對(duì)應(yīng)關(guān)系,多模態(tài)大模型將不同模態(tài)的原始數(shù)據(jù)映射到統(tǒng)一或相似語(yǔ)義空間當(dāng)中,從而實(shí)現(xiàn)不同模態(tài)的信號(hào)之間的相互理解與對(duì)齊,這一能力最常見的例子就是互聯(lián)網(wǎng)中使用文字搜索與之相關(guān)圖片的圖文搜索引擎。
應(yīng)用
應(yīng)用價(jià)值
AIGC被視為數(shù)字內(nèi)容創(chuàng)新發(fā)展的重要推動(dòng)力,為數(shù)字經(jīng)濟(jì)發(fā)展提供新的動(dòng)力。例如,百度搜索文心助手的AIGC創(chuàng)作生成功能可支持AI圖片、AI視頻、AI音樂(lè)、AI播客等8種模態(tài)的創(chuàng)作,覆蓋從圖片處理到視頻制作的多元需求,用戶日均生成AIGC內(nèi)容量突破千萬(wàn)。
AIGC能夠以優(yōu)于人類的制造能力和知識(shí)水平承擔(dān)信息挖掘、素材調(diào)用、復(fù)刻編輯等基礎(chǔ)性機(jī)械勞動(dòng),從技術(shù)層面實(shí)現(xiàn)以低邊際成本、高效率的方式滿足海量個(gè)性化需求;能夠同時(shí)創(chuàng)新內(nèi)容生產(chǎn)的流程和范式,為更具想象力的內(nèi)容。更加多樣化的傳播方式提供可能性,推動(dòng)內(nèi)容生產(chǎn)向更有創(chuàng)造力的方向發(fā)展。
AIGC能夠通過(guò)支持?jǐn)?shù)字內(nèi)容與其他產(chǎn)業(yè)的多維互動(dòng)、融合滲透從而孕育新業(yè)態(tài)新模式,打造經(jīng)濟(jì)發(fā)展新增長(zhǎng)點(diǎn),為千行百業(yè)發(fā)展提供新動(dòng)能。
行業(yè)價(jià)值
媒體行業(yè)
采編環(huán)節(jié)
實(shí)現(xiàn)采訪錄音語(yǔ)音轉(zhuǎn)寫、智能新聞寫作和智能視頻剪輯。例如,文本生成技術(shù)可通過(guò)分析數(shù)據(jù)快速生成體育、財(cái)經(jīng)等領(lǐng)域的新聞報(bào)道(如比賽即時(shí)報(bào)道),提升新聞產(chǎn)出效率;在技術(shù)領(lǐng)域,該技術(shù)可自動(dòng)生成項(xiàng)目進(jìn)展報(bào)告、用戶手冊(cè)等技術(shù)文檔,助力團(tuán)隊(duì)高效溝通。
傳播
在傳播環(huán)節(jié),AIGC 應(yīng)用主要集中于以AI合成主播為核心的新聞播報(bào)等領(lǐng)域。只需要輸入所需要播發(fā)的文本內(nèi)容,就會(huì)生成相應(yīng)的AI合成主播播報(bào)的新聞視頻,并確保視頻中人物音頻和表情、唇動(dòng)保持自然一致,展現(xiàn)與真人主播無(wú)異的信息傳達(dá)效果。
影視行業(yè)
前期創(chuàng)作階段
AIGC通過(guò)學(xué)習(xí)海量劇本數(shù)據(jù),可按照預(yù)定風(fēng)格生成劇本內(nèi)容,供創(chuàng)作者進(jìn)行二次篩選和加工,輔助激發(fā)創(chuàng)作靈感并縮短創(chuàng)作周期。此外,AIGC還能通過(guò)文生視頻功能生成動(dòng)態(tài)故事板,幫助創(chuàng)作團(tuán)隊(duì)直觀審視劇本節(jié)奏與場(chǎng)景轉(zhuǎn)換的合理性。例如,輸入"暴風(fēng)雨夜晚古老城堡大門緩緩打開,昏黃燈光從門縫透出"等詳細(xì)場(chǎng)景描述后,可生成動(dòng)態(tài)視頻片段,用于評(píng)估角色動(dòng)作銜接流暢度、鏡頭切換合理性等,進(jìn)而優(yōu)化劇本內(nèi)容與拍攝計(jì)劃。
中期拍攝階段
可通過(guò)人工智能合成虛擬場(chǎng)景,將無(wú)法實(shí)拍或成本過(guò)高的場(chǎng)景生成出來(lái),提升視聽體驗(yàn)。
后期制作階段
可結(jié)合AIGC技術(shù)對(duì)視頻畫質(zhì)進(jìn)行增強(qiáng),若視頻中出現(xiàn)“劣跡藝人”等敏感人員可通過(guò)“人臉替換”“人聲替換”對(duì)視頻進(jìn)行編輯。此外,還可利用AI技術(shù)自動(dòng)對(duì)視頻片段進(jìn)行剪輯,縮短視頻預(yù)告片、片段集錦的制作時(shí)間。
電商行業(yè)
AIGC生成3D模型可用于商品展示,提升線上購(gòu)物體驗(yàn)。AIGC還可打造虛擬主播直播帶貨,構(gòu)建虛擬商城構(gòu)建,智能聊天機(jī)器人,為消費(fèi)者提供全新的購(gòu)物場(chǎng)景。
娛樂(lè)行業(yè)
借助于 AIGC 技術(shù),通過(guò)趣味性圖像或音視頻生成、打造虛擬偶像、開發(fā) C 端用戶數(shù)字化身等方式,娛樂(lè)行業(yè)可以迅速擴(kuò)展自身的輻射邊界,以更加容易被消費(fèi)者所接納的方式,獲得新的發(fā)展動(dòng)能。
其他行業(yè)
教育領(lǐng)域, AIGC 賦予教育材料新活力。相對(duì)于閱讀和講座等傳統(tǒng)方式, AIGC 為教育工作者提供了新的工具,使原本抽象、平面的課本具體化、立體化,以更加生動(dòng)、更加令人信服的方式向?qū)W生傳遞知識(shí)。
金融領(lǐng)域, AIGC 助力實(shí)現(xiàn)降本增效。一方面可通過(guò) AIGC 實(shí)現(xiàn)金融資訊、產(chǎn)品介紹視頻內(nèi)容的自動(dòng)化生產(chǎn),提升金融機(jī)構(gòu)內(nèi)容運(yùn)營(yíng)的效率;另一方面,可通過(guò) AIGC 塑造視聽雙通道的虛擬數(shù)字人客服,讓金融服務(wù)更有溫度。
醫(yī)療領(lǐng)域, AIGC 賦能診療全過(guò)程。在輔助診斷方面, AIGC 可用于改善醫(yī)學(xué)圖像質(zhì)量、錄入電子病歷等,完成對(duì)醫(yī)生的智力、精力的解放,讓醫(yī)生資源專注到核心業(yè)務(wù)中,從而實(shí)現(xiàn)醫(yī)生群體業(yè)務(wù)能力的提升。在康復(fù)治療方面, AIGC 可以為失聲者合成語(yǔ)言音頻,為殘疾者合成肢體投影,為心理疾病患者合成無(wú)攻擊感的醫(yī)護(hù)陪伴等,通過(guò)用人性化的方式來(lái)?yè)嵛炕颊撸瑥亩婢徠淝榫w,加速其康復(fù)。
工業(yè)領(lǐng)域, AIGC 提升產(chǎn)業(yè)效率和價(jià)值。AIGC 通過(guò)將工程設(shè)計(jì)中重復(fù)的、耗時(shí)的和低層次的任務(wù)自動(dòng)化,可使原來(lái)需要耗費(fèi)數(shù)千小時(shí)的工程設(shè)計(jì)縮短到分鐘級(jí)。同時(shí)支持生成衍生設(shè)計(jì),為工程師或設(shè)計(jì)師提供靈感。此外,還支持在設(shè)計(jì)中引入變化,實(shí)現(xiàn)動(dòng)態(tài)模擬。
風(fēng)險(xiǎn)與不足
風(fēng)險(xiǎn)
法律風(fēng)險(xiǎn)
傳統(tǒng)繪畫、攝影、文字等作品需要付費(fèi)才能使用。作品的創(chuàng)作者享有著作權(quán)。AIGC 已能成熟進(jìn)行內(nèi)容作品創(chuàng)作,但從中華人民共和國(guó)著作權(quán)法角度看,AIGC 基本屬于重組式創(chuàng)新,尚不具有真正的創(chuàng)造力。AIGC技術(shù)通過(guò)學(xué)習(xí)模仿,可以快速模擬作者生成圖片、音視頻文字,但AI生成的著作權(quán)、肖像權(quán)等物權(quán)歸屬?zèng)]有確定,全球沒有相關(guān)法律。2022年有網(wǎng)友通過(guò)AIGC技術(shù)將喜歡的歌手孫燕姿的聲音進(jìn)行合成替換部分歌曲演唱者。一夜間“孫燕姿”錄制歌曲近千首,歌手本人也表示一輩子都無(wú)法唱完這么多歌曲。但此行為也損害了其他歌手的版權(quán),原歌手通過(guò)平臺(tái)下載量和收人減少。
AIGC 作品既存在被他人侵權(quán)的風(fēng)險(xiǎn),也存在侵犯他人權(quán)利的可能性。Al 要變得更加智能個(gè)必要的環(huán)節(jié)就是深度學(xué)習(xí)。這就需要一個(gè)龐大的人類作品數(shù)據(jù)庫(kù),讓算法學(xué)會(huì)創(chuàng)作風(fēng)格、內(nèi)容題材等創(chuàng)作的要領(lǐng)。全球已發(fā)生多起著作人對(duì)AI公司進(jìn)行起訴,控告AI抄襲原作者作品或創(chuàng)意,生成內(nèi)容未付費(fèi)對(duì)創(chuàng)作者造成侵權(quán)傷害。一些不法分子也將注意力轉(zhuǎn)到這方面,通過(guò)AIGC換臉、電信詐騙或者生物識(shí)別等方式盜取用戶資金。
個(gè)人隱私安全
AIGC在圖片與視頻生成過(guò)程中需要投入大量數(shù)據(jù)進(jìn)行訓(xùn)練。AI公司獲取數(shù)據(jù)具有絕對(duì)的技術(shù)優(yōu)勢(shì),可以通過(guò)APP瀏覽數(shù)據(jù)、媒體數(shù)據(jù)、社交網(wǎng)絡(luò)多個(gè)渠道獲取客戶信息,這些數(shù)據(jù)有客戶隱私數(shù)據(jù)也有客戶交易和瀏覽軌跡4。公司還會(huì)要求用戶輸入敏感數(shù)據(jù)或商業(yè)信息作為訓(xùn)練數(shù)據(jù),信息是否得到有效保護(hù)、用戶隱私安全是否得到有效保障還沒有明確法律要求。上文提到Lensa和妙鴨相機(jī),都需要客戶上傳大量個(gè)人照片。關(guān)于客戶這些照片在訓(xùn)練后的處理,是否會(huì)被公司作為一種資產(chǎn)進(jìn)行出售都有待觀察。
道德風(fēng)險(xiǎn)
AI在處理具象工作方面具有強(qiáng)大的數(shù)據(jù)處理能力、極度專注度、多線程并發(fā)處理能力。未來(lái)很多知識(shí)類基礎(chǔ)工作將由AI承擔(dān),如寫作、圖片視頻拍攝、代碼編寫等。人類將更多負(fù)責(zé)創(chuàng)造性工作。但在AI替代部分傳統(tǒng)工作中,人類可能在很多方面與AI會(huì)因文化認(rèn)同、社會(huì)道德等意識(shí)形態(tài)方面的差異而產(chǎn)生矛盾。在教育領(lǐng)域很多大學(xué)明確禁止學(xué)生使用ChatGPT一方面由于其功能強(qiáng)大,可以短時(shí)間內(nèi)生成論文,且難以被發(fā)現(xiàn); 另一方面,也說(shuō)明學(xué)校擔(dān)心學(xué)生濫用技術(shù)會(huì)導(dǎo)致過(guò)度依賴ChatGPT,導(dǎo)致學(xué)生喪失獨(dú)立思考和研究能力,考試有失公平。如果AI是基于非真實(shí)數(shù)據(jù)進(jìn)行的訓(xùn)練,很可能生成內(nèi)容帶有一定偏見和非真實(shí)性。
不足
技術(shù)成熟度不足
AIGC大模型在測(cè)試與調(diào)試過(guò)程中,存在答非所問(wèn)、答案重復(fù)、通識(shí)錯(cuò)誤等現(xiàn)象。這些挑戰(zhàn)與AIGC的“幻覺”問(wèn)題相關(guān),即模型基于概率機(jī)制選擇內(nèi)容,因缺乏真實(shí)知識(shí)庫(kù)支撐和邏輯推理能力,可能導(dǎo)致輸出失準(zhǔn)。其具體表現(xiàn)包括無(wú)中生有、推理錯(cuò)誤等五類問(wèn)題,特征涉及虛構(gòu)信息、過(guò)度自信等七類,可能對(duì)用戶產(chǎn)生誤導(dǎo)。AIGC內(nèi)容生成高度依賴訓(xùn)練數(shù)據(jù),若數(shù)據(jù)存在陳舊或偏差問(wèn)題,模型因缺乏自主判斷能力可能難以達(dá)到預(yù)期效果;此外,AIGC生成內(nèi)容通常缺乏深度思考與個(gè)性化觀點(diǎn),主要通過(guò)關(guān)聯(lián)知識(shí)點(diǎn)完成內(nèi)容構(gòu)建,部分情況下可能給用戶造成“一本正經(jīng)地胡說(shuō)八道”的感知。
缺乏監(jiān)管與控制
繼2022年1月國(guó)家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國(guó)家市場(chǎng)監(jiān)督管理總局聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》后,2022年11月,國(guó)家互聯(lián)網(wǎng)信息辦公室再次會(huì)同工業(yè)和信息化部、公安部聯(lián)合發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》。該規(guī)定的第五章第二十三條,對(duì)“深度合成技術(shù)”內(nèi)涵做了規(guī)定:“利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)。”我國(guó)與人工智能生成內(nèi)容有關(guān)的規(guī)定,僅是以行政手段下發(fā)缺乏立法過(guò)程。AIGC具有強(qiáng)大的內(nèi)容生產(chǎn)能力,但是監(jiān)管和執(zhí)法部門缺乏技術(shù)手段有效識(shí)別AIGC生成圖片、合成聲音和文字,執(zhí)法過(guò)程缺乏工具。根據(jù)人工智能內(nèi)容生產(chǎn)發(fā)展,建立“科學(xué)立法、嚴(yán)格執(zhí)法、全面守法”的監(jiān)督管理體系還有大量工作,各方面經(jīng)驗(yàn)需要不斷積累。
內(nèi)容及企業(yè)管理
內(nèi)容審核能力不足,AIGC企業(yè)通過(guò)建立內(nèi)容審核機(jī)制的方式落實(shí)互聯(lián)網(wǎng)內(nèi)容治理主體責(zé)任,“機(jī)審+人審”已成為其基本審核方式。在機(jī)審方面,審核準(zhǔn)確率受審核類型、內(nèi)容違規(guī)變種繁雜、網(wǎng)絡(luò)黑灰產(chǎn)對(duì)抗手段加劇等影響而導(dǎo)致誤報(bào)率偏高。AIGC 技術(shù)復(fù)雜,在企業(yè)中的運(yùn)用具有高動(dòng)態(tài)性等特點(diǎn),企業(yè)作為技術(shù)設(shè)計(jì)者和服務(wù)提供者不具備相應(yīng)的技術(shù)管理能力。企業(yè)風(fēng)險(xiǎn)治理能力不足,AIGC 技術(shù)在發(fā)展初期,其風(fēng)險(xiǎn)具有未知性和復(fù)雜性等特點(diǎn),很多企業(yè)對(duì)于對(duì)風(fēng)險(xiǎn)的預(yù)測(cè)、防范和應(yīng)急處置能力不足,風(fēng)險(xiǎn)治理理念未落實(shí)到工程技術(shù)實(shí)踐中。
AIGC商業(yè)模式
以AIGC為代表的人工智能技術(shù)對(duì)數(shù)字娛樂(lè)行業(yè)產(chǎn)生的“沖擊力”較大,可以幫助企業(yè)“降成本、提效率”。人工智能技術(shù)對(duì)游戲行業(yè)的影響主要體現(xiàn)在游戲研發(fā)期、客戶運(yùn)營(yíng)以及上下游產(chǎn)業(yè)鏈聯(lián)動(dòng)三個(gè)層面。它不僅帶來(lái)企業(yè)的降本提效,還使游戲創(chuàng)新、商業(yè)模式都發(fā)生一些變化。
AIGC依托圖像生產(chǎn)、視頻生成、文本生成、語(yǔ)音生成的四大生成能力,為千行百業(yè)提供AI繪畫、人像變化、虛擬偶像制作、AI作曲等10多個(gè)標(biāo)準(zhǔn)化應(yīng)用產(chǎn)品。覆蓋互聯(lián)網(wǎng)多個(gè)行業(yè)的內(nèi)容創(chuàng)作、內(nèi)容編輯、內(nèi)容運(yùn)營(yíng)場(chǎng)景等,能夠有效助力企業(yè)實(shí)現(xiàn)業(yè)務(wù)創(chuàng)新。
未來(lái)發(fā)展
核心技術(shù)持續(xù)演進(jìn)
從真實(shí)可控向多樣組合發(fā)展
AIGC 的相關(guān)算法已經(jīng)具備了真實(shí)復(fù)刻和創(chuàng)造某類既定內(nèi)容的能力,同時(shí)相關(guān)模型對(duì)簡(jiǎn)單場(chǎng)景的內(nèi)容生成也取得了較好成果,但面對(duì)多樣性變化和復(fù)雜場(chǎng)景內(nèi)容生成的挑戰(zhàn),AIGC 的算法能力仍需進(jìn)一步提升。AIGC 技術(shù)的下一個(gè)發(fā)展方向是通過(guò)不同生成個(gè)體間的交互進(jìn)行內(nèi)容創(chuàng)作。通過(guò)對(duì)整體的、多模態(tài)的復(fù)雜場(chǎng)景創(chuàng)作, AIGC 有望實(shí)現(xiàn)更多數(shù)智內(nèi)容,進(jìn)而反哺核心及關(guān)聯(lián)領(lǐng)域,促進(jìn)共同發(fā)展。
從本地化集中式向大規(guī)模分布式發(fā)展
針對(duì)大規(guī)模分布式 AIGC 交互算法的研究是 AIGC 技術(shù)未來(lái)的發(fā)展方向之一。AIGC 離不開大規(guī)模分布式深度學(xué)習(xí)技術(shù)和多智能體強(qiáng)化學(xué)習(xí)技術(shù)。大規(guī)模分布式 AIGC 的發(fā)展,有助于高效利用 GPU 算力,將計(jì)算流程拆解到一系列算力平臺(tái)和邊緣計(jì)算設(shè)備上,通過(guò)多設(shè)備分布式計(jì)算的方式,加速內(nèi)容制作流程,提高生成效率和質(zhì)量。大規(guī)模多智能體網(wǎng)絡(luò)在分布式計(jì)算的框架下通過(guò)個(gè)體間的合作和競(jìng)爭(zhēng)可以完成單體無(wú)法完成的任務(wù)。通過(guò)對(duì)大規(guī)模分布式多智能體算法的研究,探索多智能體的拓展性、安全性、穩(wěn)定性、遷移性等,是未來(lái)重點(diǎn)探索的方向之一。
關(guān)鍵能力顯著增強(qiáng)
隨著 AIGC 核心技術(shù)的不斷發(fā)展,其內(nèi)容孿生、內(nèi)容編輯、內(nèi)容創(chuàng)作三大基礎(chǔ)能力將顯著增強(qiáng)。隨著渲染技術(shù)、仿真加速、 XR 套件及開發(fā)組件等技術(shù)的提升,基于內(nèi)容孿生的數(shù)字孿生能力可以將現(xiàn)實(shí)世界更逼真地復(fù)制到虛擬世界,復(fù)刻出人物更豐滿、物體更逼真、細(xì)節(jié)更豐富的虛擬鏡像,并依托新一代傳感器以及云邊端協(xié)同作業(yè),進(jìn)行實(shí)時(shí)動(dòng)態(tài)更新。同時(shí),依托內(nèi)容編輯的數(shù)字伴生能力也將進(jìn)一步打通現(xiàn)實(shí)世界與虛擬世界的雙向通道,基于內(nèi)容創(chuàng)作的數(shù)字原生能力的潛能將得到真正釋放。
產(chǎn)品類型逐漸豐富
隨著人工智能相關(guān)技術(shù)的持續(xù)發(fā)展,數(shù)字人開發(fā)的自由度將大幅提高,不同個(gè)人、不同企業(yè)的數(shù)字人將更具辨識(shí)度和獨(dú)立特征,開發(fā)成本將大幅降低以促進(jìn)數(shù)字人的普世化發(fā)展。同時(shí),具有自主內(nèi)容生人工智慧的不斷發(fā)展及推進(jìn),也將使 AIGC 模態(tài)不再僅僅局限于文本、音頻、視覺三種基本形態(tài)。嗅覺、觸覺、味覺、情感等多重信息感知和認(rèn)知能力將以數(shù)字化的形式傳輸并指導(dǎo)人工智能進(jìn)行內(nèi)容創(chuàng)作。
場(chǎng)景應(yīng)用趨于多元
AIGC 已經(jīng)在多個(gè)領(lǐng)域得到廣泛應(yīng)用,未來(lái)應(yīng)用場(chǎng)景會(huì)進(jìn)一步多元化。例如在" AIGC +數(shù)據(jù)科學(xué)"領(lǐng)域,可以自動(dòng)生成具有安全性、標(biāo)簽化、經(jīng)過(guò)預(yù)處理的標(biāo)準(zhǔn)數(shù)據(jù)以滿足越來(lái)越"饑餓"的人工智能模型。未來(lái)自主生成內(nèi)容將會(huì)達(dá)到人類水平,經(jīng)人工智能創(chuàng)作后無(wú)需人為優(yōu)化即可投放市場(chǎng)。除應(yīng)用場(chǎng)景的橫向擴(kuò)展外,場(chǎng)景與場(chǎng)景的融合交互也是未來(lái)的發(fā)展趨勢(shì)之一。
生態(tài)建設(shè)日益完善
隨著 AIGC 的不斷成熟,以標(biāo)準(zhǔn)規(guī)范、技術(shù)研發(fā)、內(nèi)容創(chuàng)作、行業(yè)應(yīng)用、資產(chǎn)服務(wù)為核心的生態(tài)體系架構(gòu)將日趨完善,無(wú)論是以 AIGC 賦能產(chǎn)業(yè)升級(jí)還是以 AIGC 自主釋放價(jià)值都將在此框架下健康有序發(fā)展。標(biāo)準(zhǔn)規(guī)范為 AIGC 生態(tài)構(gòu)建了從技術(shù)、內(nèi)容、應(yīng)用、服務(wù)、監(jiān)管的全過(guò)程一體化標(biāo)準(zhǔn)體系,促進(jìn) AIGC 在合理合規(guī)合法的框架下良性發(fā)展。
參考資料 >
人工智能生成內(nèi)容(AIGC)白皮書(2022年).中國(guó)信通院.2023-10-27
AIGC 是什么?.亞馬遜.2023-11-06
專家詳解 | AIGC的現(xiàn)在與未來(lái).賽迪智庫(kù).2025-11-28
生成式AI上演“超級(jí)星期三”,科技廠商和監(jiān)管各自祭出王牌.今日頭條.2023-12-08
預(yù)見·科技丨國(guó)內(nèi)AIGC賽道探索已基本結(jié)束,下一個(gè)“DeepSeek”已經(jīng)在路上.今日頭條.2025-04-17
AIGC和智能數(shù)字化新時(shí)代:媲美新石器時(shí)代的文明范式轉(zhuǎn)型.澎湃新聞.2023-12-15
AIGC助力企業(yè)降本增效 行業(yè)龍頭論道大模型應(yīng)用的機(jī)遇與挑戰(zhàn).每日經(jīng)濟(jì)新聞.2023-11-24
騰訊云發(fā)布AIGC全棧解決方案,加速AI落地千行百業(yè).每經(jīng)網(wǎng).2023-11-24