0769-82801009

519929611@qq.com

如果AIGC繼續(xù)發(fā)展,你相信哪個(gè)世界?

2022-12-06 18:56:12 147小編

  今年以來,由游戲設(shè)計(jì)師杰森·艾倫使用 AI 繪圖工具 Midjourney 繪制的作品《太空歌劇院》奪下了美國科羅拉多博覽會(huì)的年度藝術(shù)比賽的首獎(jiǎng),引起藝術(shù)家和社交媒體的熱議,也讓AIGC(人工智能自動(dòng)生成內(nèi)容)概念成為AI界年度熱詞,并掀起了一股AIGC投資熱潮。AIGC真如外界所宣傳的那般美好嗎?其背后的創(chuàng)新創(chuàng)業(yè)生態(tài)將如何構(gòu)建?

  從2012年AlexNet取得深度學(xué)習(xí)里程碑式的突破以來,啟明創(chuàng)投在過去的十年中都是中國最活躍的人工智能投資機(jī)構(gòu)之一,我們見證了人工智能從算法到應(yīng)用的一次次突破和發(fā)展,對(duì)人工智能的前景我們始終保持著熱情和理智。啟明創(chuàng)投開設(shè)硬科技前瞻專欄,希望從創(chuàng)投視角深度解讀前瞻技術(shù)突破,多維度剖析行業(yè)趨勢(shì),尋找新銳科技力量。

  如果我和你說,未來AIGC可能有兩種世界:一種世界是多個(gè)大模型基礎(chǔ)公司,為上游應(yīng)用提供API和模型服務(wù),上游應(yīng)用公司只需要專注于開發(fā)產(chǎn)品邏輯和上層算法;而另一種世界則如同今天的AI公司一樣,每家公司都根據(jù)自身需求研發(fā)底層大模型,為自身應(yīng)用提供技術(shù)支持。

  你對(duì)任何一種世界的相信都將構(gòu)成你當(dāng)下投資和創(chuàng)業(yè)的選擇,當(dāng)然,這兩種世界也可能存在互相交織的過渡形態(tài),但需要你來對(duì)過渡形態(tài)的持續(xù)時(shí)間進(jìn)行判斷,你會(huì)選擇相信哪一種世界?

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  AIGC的兩種世界

  先不用著急給出你的答案,再問你兩個(gè)問題:

  1、如果GPT-4,或者3年、5年后*的模型比GPT-3大100倍甚至1000倍,作為創(chuàng)業(yè)公司是否還要自研?

  2、在某個(gè)領(lǐng)域的底層基礎(chǔ)模型尚未成熟的時(shí)候,選擇在該領(lǐng)域進(jìn)行創(chuàng)業(yè)是很好的timing嗎?

  如果你對(duì)未來的AIGC世界和這兩個(gè)問題感興趣,我們將進(jìn)入今天的文章。我們將簡(jiǎn)單回顧近期熱鬧的AIGC,從中探尋AIGC在今年火爆的根本原因,并將結(jié)合強(qiáng)化學(xué)習(xí)奠基人之一Rich Sutton的“AI70年慘痛的教訓(xùn)”和Jasper.AI、Copy.AI等公司的發(fā)展,做出我們對(duì)于這個(gè)世界的判斷。相信看完以后,你也將會(huì)得出自己的答案。

  引爆用戶的AIGC

  如果用一個(gè)字形容過去幾個(gè)月的AIGC(AIGenerated Content)/Generative AI那么應(yīng)該是“火”。Midjourney的作品獲得美國科羅拉多州博覽會(huì)的數(shù)字藝術(shù)比賽一等獎(jiǎng),引發(fā)關(guān)注和廣泛爭(zhēng)論,有人戲稱AIGC讓每個(gè)畫師都在擔(dān)心失業(yè)。與此同時(shí),今年相對(duì)沉寂的VC迎來新風(fēng)口,連續(xù)轟炸的AIGC公司的融資消息和新聞讓VC又一次產(chǎn)生FOMO(Fear of Missing Out)的情緒;DreamStudio、Midjourney等AI作畫應(yīng)用符合視覺消費(fèi)的時(shí)代主題,引爆了C端熱情。

  其實(shí)AIGC并不是一個(gè)新穎的概念,AIGC即用AI算法生成文本或者圖像等內(nèi)容,各種NLG(自然語言生成) 模型和GAN(生成對(duì)抗網(wǎng)絡(luò))及其變種模型都是此前的生成式AI模型。如果你打開谷歌搜索AIGC,會(huì)發(fā)現(xiàn)排在前面的基本都是中文網(wǎng)站,因此有人說AIGC是一個(gè)國產(chǎn)概念,與之對(duì)應(yīng)的海外概念是Gartner在2019年提出的Generative AI,為統(tǒng)一理解,本文將采用AIGC來表達(dá)AI生成內(nèi)容。

  我們觀察到新一波AIGC浪潮起源于2020年的預(yù)訓(xùn)練大模型GPT-3,現(xiàn)在火爆的圖像生成、視頻生成、3D生成等,本質(zhì)是大模型從文本生成擴(kuò)展到多模態(tài),并結(jié)合原有模態(tài)算法進(jìn)行實(shí)現(xiàn)(當(dāng)然,以圖片生成圖片等本模態(tài)之間的AI生成,以及圖像生成視頻、2D生成3D等跨模態(tài)生成也是AIGC,例如VAE、StyleGAN、Nerf等與AI生成相關(guān)的模型都在GPT-3發(fā)布之前或之后提出,但這些方向的工作并非引爆新一波AIGC的主要原因)。因此,我們看到的大量AIGC應(yīng)用,目前的表現(xiàn)形式大多為輸入一句話,生成一句話/一張圖/一段視頻/一串代碼等。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  1750億參數(shù)的GPT3曾一度是AI歷史上*的機(jī)器學(xué)習(xí)模型,相比于15億參數(shù)量的GPT2,GPT3參數(shù)量提高約117倍,預(yù)訓(xùn)練的數(shù)據(jù)量也從50 GB提高到的570 GB。2020年發(fā)布GPT3的時(shí)候,OpenAI并沒有將工作重點(diǎn)放在模型結(jié)構(gòu)的創(chuàng)新上,反而是進(jìn)行了大量工程化的工作,充分展示GPT3通過Zero-Shot、One-Shot和Few-Shots(即不需要額外數(shù)據(jù)進(jìn)行微調(diào),直接給出幾個(gè)樣例就可以讓模型做出正確的生成)等Prompt方法完成多種NLP任務(wù)的通用性和泛化能力。通過釋放出API接口供公眾調(diào)用,GPT-3的商業(yè)化也正式提上日程。GPT-3展示出驚人的效果后,一年后*實(shí)驗(yàn)室和科技大廠陸續(xù)發(fā)布自己的NLP預(yù)訓(xùn)練大模型,模型參數(shù)量呈現(xiàn)指數(shù)級(jí)別的增長。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  深度學(xué)習(xí)模型中參數(shù)數(shù)量的指數(shù)級(jí)增長

  隨后的一年內(nèi),OpenAI進(jìn)行了多次多模態(tài)的探索,其中最知名的是Text-to-image系列模型DALLE和DALLE2。

  OpenAI在2021年1月發(fā)布初代Text-to-Image 模型 DALL-E,雖然相比于此前作畫模型進(jìn)展驚人,但效果并未讓大眾驚艷,因此只在學(xué)界引發(fā)了巨大的關(guān)注。2022年4月,OpenAI再次發(fā)布第二代Text-to-Image 模型 DALL-E 2,效果極好,但OpenAI僅用一篇未公布細(xì)節(jié)的論文展示其成果,并僅為審核通過的開發(fā)者提供接口試用。2022年8月,借鑒Dall-E 2的思路,Stable Diffusion模型開源,至此,AI圖像生成開始爆發(fā)。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  DALLE、 DALL-E2和其他開源模型的發(fā)布時(shí)間線與效果

  時(shí)間軸圖片來源:State of AI Report 2022, https://www.stateof.ai/

  總結(jié)AI生成圖像發(fā)展滯后于生成文本,但卻在2022年下半年爆發(fā)的原因,我們不難發(fā)現(xiàn)如下規(guī)律,上一層級(jí)的AIGC往往依賴于下一層級(jí)的AIGC發(fā)展到一定程度,如Text-to-Image依賴于Text-to-Text本身的算法發(fā)展相對(duì)成熟,同理,我們推測(cè)Text-to-Video也需要依賴Text-to-Image和其他視頻預(yù)測(cè)算法(如視頻插幀)的發(fā)展成熟,因此,我們可以對(duì)不同復(fù)雜度的AIGC內(nèi)容的進(jìn)化路線得出以下推論:

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  AIGC中不同內(nèi)容的進(jìn)化路線

  AIGC為何引起新一波熱潮?

  如果分析新一波AIGC得到發(fā)展的原因,最直接的結(jié)論是因?yàn)榇竽P?如GPT-3、Dalle2、StableDiffusion等)帶來了非常好的效果和泛化能力。

  其實(shí)從GPT-3出現(xiàn)之前,早在2018年3.4億參數(shù)的Bert模型在當(dāng)時(shí)已經(jīng)算是巨無霸級(jí)別的存在,只是沒有想到短短2年內(nèi),模型參數(shù)就提高到了GPT-3的1750億。3.4億參數(shù)的Bert將SQuAD 1.1的F1得分提高到93.16分,超過人類的表現(xiàn),并用屠榜的成績贏得了多項(xiàng)NLP測(cè)試。但直到GPT-3的出現(xiàn),NLP模型才可以更好地完成NLG任務(wù),并且對(duì)Few-shots的運(yùn)用更加?jì)故臁?/p>

  大模型還展示出了強(qiáng)大的泛化能力,GPT-3的API接口讓下游的應(yīng)用公司可以不需要遷移學(xué)習(xí)就直接將AI能力應(yīng)用到自己的任務(wù)中,API接口發(fā)布不到1年內(nèi)就吸引了約300家公司調(diào)用其API,也印證了在2021年8月斯坦福大學(xué)教授李飛飛等100多位學(xué)者聯(lián)名發(fā)表的200多頁的研究報(bào)告On the Opportunities and Risk of Foundation Models中關(guān)于大模型(統(tǒng)一命名為Foundation Models)可以集中來自多種模態(tài)的所有數(shù)據(jù)的信息,并直接適用于多種下游任務(wù)的構(gòu)想。借助GPT-3的API接口,OpenAI也逐漸從獨(dú)立的實(shí)驗(yàn)室走向大模型的基礎(chǔ)設(shè)施公司。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  圖片來源:論文On the Opportunities and Risk of Foundation Models

  但如果進(jìn)一步對(duì)為什么大模型能夠帶來更好的效果和泛化性進(jìn)行分析,我們目前還只能通過實(shí)驗(yàn)而非清晰的理論進(jìn)行解釋。的確大多數(shù)情況下更大規(guī)模的模型會(huì)帶來更好的效果,但具體原因尚未被探明,學(xué)術(shù)界也存在很多探討。在最新的一篇關(guān)于大模型的研究論文中,作者通過實(shí)驗(yàn)證明了大多數(shù)任務(wù)的效果隨著模型的增大而提高——在一些任務(wù)中,隨著模型增大而效果類似線性相關(guān)地變好的情況,作者將這類任務(wù)定義為LinearityTasks,同樣,也有一些任務(wù)需要模型規(guī)模超過某個(gè)臨界點(diǎn)后,會(huì)突然出現(xiàn)相應(yīng)的能力,此后在隨著模型規(guī)模的增大而提升效果,作者將這類任務(wù)定義為BreakthroughnessTasks。(當(dāng)然,也存在少部分任務(wù)的效果隨著模型增大而降低)。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  圖片來源:論文Beyond the Imitation Game: Quantifying and extrapolating the capabilities of language models

  同樣,論文Emergent Abilities of Large Language Models中也有類似的實(shí)驗(yàn)證明,當(dāng)模型達(dá)到臨界大小時(shí),許多NLP能力會(huì)不可預(yù)測(cè)地出現(xiàn)——涌現(xiàn)規(guī)律。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  如果再進(jìn)一步追問為什么模型可以越做越大,則不得不提到Transformer的優(yōu)點(diǎn)。Transformer解決了并行化訓(xùn)練和長依賴問題,能夠容納更多的參數(shù)規(guī)模,為模型進(jìn)一步做大提供了基礎(chǔ),而大模型帶來了更好的效果和泛化性,提供了超過以往的生成能力,引發(fā)了新一波AIGC的爆發(fā)。

  Transformer提供的并行化和對(duì)全局信息掌控能力,對(duì)算力的充分挖掘和利用,也近乎*地符合2019年 DeepMind杰出科學(xué)家、強(qiáng)化學(xué)習(xí)的奠基人之一的Rich Sutton在文章The Bitter Lesson中論述的觀點(diǎn)——從過去70年的人工智能研究中可以得到的*教訓(xùn),是利用計(jì)算的一般方法最終是最有效的,而且效果提升幅度很大。

  在文章中,Rich Sutton通過列舉深度搜索超過人類知識(shí)設(shè)計(jì)的算法而在計(jì)算機(jī)國際象棋中擊敗人類冠軍、隱性馬爾可夫模型在語音識(shí)別領(lǐng)域戰(zhàn)勝基于人類知識(shí)的算法、計(jì)算機(jī)視覺中深度學(xué)習(xí)使用卷積超過此前搜索邊緣和以SIFT特征為基礎(chǔ)的方法,論證了為了尋求在短期內(nèi)有所作為的改進(jìn),研究人員更傾向于利用人類對(duì)該領(lǐng)域的知識(shí),但從長遠(yuǎn)來看,*重要的是對(duì)計(jì)算的利用。

  然而, Rich Sutton關(guān)于“長遠(yuǎn)來看,*重要的是對(duì)計(jì)算的利用”的觀點(diǎn),當(dāng)時(shí)并沒有引發(fā)業(yè)界的強(qiáng)烈關(guān)注,甚至在大模型促進(jìn)AIGC蓬勃發(fā)展的今天,很多創(chuàng)業(yè)者和投資人仍然沒有對(duì)這句話的意義足夠重視。

  未來的世界

  目前關(guān)于GPT-4流行著兩種傳言,*種是生成GPT-4并不會(huì)比GPT-3的參數(shù)規(guī)模大太多,預(yù)計(jì)是幾千億級(jí)別的參數(shù)量,但會(huì)使用更大量的數(shù)據(jù)進(jìn)行訓(xùn)練;另一種傳言是GPT-4的規(guī)模將會(huì)比GPT-3大至少一個(gè)量級(jí)。不管哪一種傳言是對(duì)的,如果我們認(rèn)真思考Rich Sutton的“長遠(yuǎn)來看,*重要的是對(duì)計(jì)算的利用”這一觀點(diǎn),則很難避免的需要回答這樣一個(gè)問題“如果GPT-4,或者3年、5年后*的模型比GPT-3大100倍甚至1000倍(這里的100倍,可能是模型參數(shù)量、也可能是訓(xùn)練使用的數(shù)據(jù)量),作為AIGC應(yīng)用側(cè)的初創(chuàng)公司還是否要自研?”

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  2012年至今,表現(xiàn)*的模型參數(shù)每18個(gè)月增加35倍,增速遠(yuǎn)超摩爾定律

  我們?cè)诮裉鞜狒[的AIGC創(chuàng)業(yè)氛圍中,有時(shí)會(huì)聽到這樣的一種樂觀言論—市場(chǎng)上能夠調(diào)用的大模型API效果并不好,我們需要得到一筆融資,去研發(fā)自己的大模型,有了自研的大模型,我們想要做的殺手級(jí)別的應(yīng)用(如寫作助手、圖畫生成等等)就會(huì)取得更好的效果,最終贏得客戶。持這種論調(diào)的創(chuàng)業(yè)者,大多有著不錯(cuò)的技術(shù)背景,并且大概率在AI領(lǐng)域有過一些值得人尊敬的成果。然而,Rich Sutton之所以得出慘痛的教訓(xùn),正是因?yàn)榛谶@樣的歷史觀察:1)人工智能研究者經(jīng)常試圖將認(rèn)知加入到他們的模型中,2)這在短期內(nèi)總是有幫助的,并且對(duì)研究者個(gè)人來說是滿意的,但是3)從長遠(yuǎn)來看,它的影響趨于平穩(wěn),甚至抑制了進(jìn)一步的進(jìn)展,4)突破性的進(jìn)展最終通過一種與之對(duì)立的方法,是基于搜索和學(xué)習(xí)這樣能夠擴(kuò)展計(jì)算的方法。

  這樣的觀察與上文我們觀察到的一些論調(diào)非常相似,今天創(chuàng)業(yè)者希望通過利用與自身業(yè)務(wù)相關(guān)的數(shù)據(jù)、經(jīng)驗(yàn)、技巧等去自己構(gòu)建當(dāng)下的*的大模型,的確有機(jī)會(huì)在自身領(lǐng)域帶來超過今天大模型基礎(chǔ)設(shè)施公司公開提供API的效果,然而這也同樣意味著企業(yè)要一直分配一大部分精力和資金在基礎(chǔ)模型的研發(fā)上,那自然放在業(yè)務(wù)上的資金和精力則會(huì)減少。PMF(Product-market fit)以及PMF之后的業(yè)務(wù)拓展,都需要企業(yè)投入全部的精力來完成,這大模型所需要耗費(fèi)的研發(fā)投入和資金成本顯然與集中精力做PMF有一些矛盾。

  對(duì)于以上的問題,目前AIGC創(chuàng)業(yè)公司中已經(jīng)實(shí)現(xiàn)PMF和商業(yè)化拓展的兩個(gè)代表性公司Copy.AI和Jasper.AI并未糾結(jié)。前者在成立的一年內(nèi)實(shí)現(xiàn)了1000萬美元的ARR,而后者則更是厲害,在成立的2年內(nèi)實(shí)現(xiàn)了4000萬美元的ARR,預(yù)計(jì)在今年實(shí)現(xiàn)9000萬以上的ARR。兩者的共同點(diǎn)都是基于選擇了使用GPT-3提供的API進(jìn)行創(chuàng)業(yè),并在GPT-3提供的API的基礎(chǔ)上,在前端做了大量的控制算法和產(chǎn)品邏輯,并集中精力打磨產(chǎn)品。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  值得警惕的是,大模型是一直在進(jìn)步的,耗費(fèi)的成本也越來越高。OpenAI1750億參數(shù)的GPT-3耗費(fèi)了大約500萬美元的訓(xùn)練資金,Stability.AI也在維護(hù)一個(gè)4000 多個(gè)Nvidia A100 GPU組成的集群來訓(xùn)練AI模型,顯然這么大的訓(xùn)練費(fèi)用對(duì)于創(chuàng)業(yè)公司是一個(gè)壓力。雖然Stable Diffusion已經(jīng)開源,但在圖文生成領(lǐng)域還有更多進(jìn)步的空間,目前來看Stability.AI的方向并非成為圖像側(cè)的應(yīng)用公司,而是成為大模型領(lǐng)域的基礎(chǔ)設(shè)施公司(可能類似于huggingface)。那么不禁要問,如果有一天Stability.AI像OpenAI一樣,并不再開源其*進(jìn)的模型,而是提供商業(yè)化調(diào)用的時(shí)候,創(chuàng)業(yè)公司是否還要選擇自研大模型來保持*進(jìn),如果回答是Yes的話,資金又要從哪里募集呢?

  另外一個(gè)值得注意的問題是,目前Stablediffusion開源模型所展示的效果并沒有在圖像領(lǐng)域達(dá)成如GPT-3在NLP領(lǐng)域一樣的效果,雖然其C端火爆的現(xiàn)象仍然持續(xù),然而如果真的轉(zhuǎn)化成B端的通用生產(chǎn)力工具,Stablediffusion還存在無法針對(duì)圖像做更細(xì)節(jié)的生成(如手部效果等)、無法制定某個(gè)特定區(qū)域修改乃至修改后與原場(chǎng)景十分融洽、無法控制畫作中不同元素(實(shí)體)進(jìn)行單獨(dú)修改等諸多問題(截止發(fā)稿前,Stablediffusion2.0已經(jīng)在11月24日發(fā)布,變化包括對(duì)分辨率的提升、引入圖片編輯功能等,但上述問題仍然未得到充分解決)。簡(jiǎn)而言之,目前除了NLP領(lǐng)域的大模型是相對(duì)成熟以外,圖像的AIGC模型尚且處于早期,視頻、3D、游戲等內(nèi)容的AIGC模型則處于更早期階段。因此創(chuàng)業(yè)者需要回答的另一個(gè)問題是“當(dāng)?shù)讓踊A(chǔ)模型尚未成熟的時(shí)候,是選擇在該領(lǐng)域進(jìn)行創(chuàng)業(yè)很好的timing嗎?是否應(yīng)該等到底層模型相對(duì)成熟且API就位后才是更好的創(chuàng)業(yè)timing?”

  以Text-to-Image領(lǐng)域?yàn)槔?,自然?huì)有一些勇敢的創(chuàng)業(yè)者會(huì)去提高當(dāng)前Stablediffusion的效果,自己訓(xùn)練前端的CLIP模型,甚至自己訓(xùn)練后端的Diffusion模型。的確,在當(dāng)前模型沒有發(fā)展到一定程度時(shí),拿到一筆錢后做出比當(dāng)下市場(chǎng)上*的模型效果還要好的模型,并為業(yè)務(wù)產(chǎn)生更好的效果的想法確實(shí)非常誘惑,這個(gè)想法下能夠展示出的Demo、優(yōu)秀的AI團(tuán)隊(duì),可能也是令VC沉醉的。但回顧NLP的歷史,如果Copy.AI、Jasper.AI并未在2020年OpenAI研發(fā)出GPT-3并開放接口后再選擇創(chuàng)業(yè),而是在2015年、2018年拿著當(dāng)時(shí)的模型去選擇做營銷助手的創(chuàng)業(yè),其成功的概率會(huì)有多大?而從目前的市場(chǎng)情況來看,圖像、視頻領(lǐng)域則尚未出現(xiàn)與Jasper.AI和Copy.AI類似的、已經(jīng)實(shí)現(xiàn)超過千萬ARR的新的應(yīng)用類創(chuàng)業(yè)公司,更多是原來已經(jīng)存在的應(yīng)用公司通過新的模型進(jìn)行業(yè)務(wù)能力的增加。相信除了StableDiffusion模型開源的時(shí)間尚短以外,也有著當(dāng)前*的模型亦尚未成熟的原因。也許,在圖像等其他內(nèi)容領(lǐng)域,目前時(shí)代還在呼喚著與OpenAI類似的提供API的基礎(chǔ)設(shè)施類公司,然后才是應(yīng)用生態(tài)繁榮的開始。

  參考國外AIGC不同類型的公司出現(xiàn)的節(jié)奏,可以發(fā)現(xiàn)如下規(guī)律:

  *步,*實(shí)驗(yàn)室研發(fā)革命性的模型

  第二步,實(shí)驗(yàn)室或者AI科學(xué)家成立基礎(chǔ)設(shè)施公司,提供API和模型對(duì)外服務(wù)

  第三步,具備行業(yè)經(jīng)驗(yàn)的產(chǎn)品人才利用基礎(chǔ)設(shè)施公司提供的API,專注于打磨自身應(yīng)用,服務(wù)客戶

  從NLP到其他模態(tài)(如圖像、視頻、3D等),以上規(guī)律反復(fù)出現(xiàn)。

瀟灑培訓(xùn)歡迎你(瀟灑學(xué)校)

  當(dāng)前NLP國內(nèi)外都已經(jīng)出現(xiàn)基礎(chǔ)設(shè)施公司提供API接口,國外有OpenAI、Cohere等公司,國內(nèi)也出現(xiàn)了智譜華章這樣研發(fā)出超大規(guī)模預(yù)訓(xùn)練模型(效果在多個(gè)公開評(píng)測(cè)集上性能超過GPT-3)并提供模型服務(wù)市場(chǎng)(Model as a Service)的基礎(chǔ)設(shè)施公司。

  有了基礎(chǔ)設(shè)施公司提供相對(duì)成熟的API服務(wù),啟明創(chuàng)投將持續(xù)關(guān)注NLP殺手級(jí)應(yīng)用;而圖像、視頻、3D等領(lǐng)域,尚未出現(xiàn)能夠提供商用API的基礎(chǔ)設(shè)施公司(StableDiffusion和Midjourney有可能是*批圖像領(lǐng)域的基礎(chǔ)設(shè)施公司)。

  啟明創(chuàng)投同樣會(huì)關(guān)注在大模型時(shí)代前就成立,專注于垂直領(lǐng)域的應(yīng)用公司,他們將在新一波AIGC浪潮中借助大模型的能力,推出新產(chǎn)品和或者大幅提升原有產(chǎn)品效果(例如Notion和RunwayML)。此外,在兩個(gè)世界過渡的過程中,能夠拿到高額融資的垂直一體AI公司仍然有可能在時(shí)間窗口中占據(jù)有利地位(例如AI21lab和Character.ai),我們對(duì)此類機(jī)會(huì)同樣保持關(guān)注,但會(huì)更加謹(jǐn)慎。

  當(dāng)然,就像是恐龍時(shí)代中,哺乳動(dòng)物作為弱小的生物并不顯眼,但卻最終面對(duì)各種惡劣的環(huán)境生存下來并開枝散葉一樣。從2012年AlexNet取得深度學(xué)習(xí)里程碑式的突破以來,啟明創(chuàng)投在過去的十年中都是中國最活躍的人工智能投資機(jī)構(gòu)之一,我們見證了人工智能從算法到應(yīng)用的一次次突破和發(fā)展,對(duì)人工智能的前景我們始終保持著熱情和理智。我們將對(duì)目前發(fā)展的元學(xué)習(xí)、新一代AI推理或者其他使用更小數(shù)據(jù)量和參數(shù)量的模型發(fā)展保持關(guān)注,也許未來有一天transformer不再是*范式,垂直應(yīng)用的世界會(huì)再次到來。

  但是,在此之前,第二種世界向*種世界的過渡看起來無法避免,要知道雖然恐龍最終滅絕,但滅絕之前,他們?cè)鳛榘灾鹘y(tǒng)治地球1.6億年。

  關(guān)于作者

  署名作者均為啟明創(chuàng)投TECH投資團(tuán)隊(duì)成員,周志峰是啟明創(chuàng)投合伙人,胡奇是啟明創(chuàng)投投資經(jīng)理。

  • 聯(lián)系人:石老師/丘老師
  • 電話:15818402896 / 15019229965
  • 郵箱:qiufukang2007@163.com
  • 主辦單位:東莞市橫瀝瀟灑職業(yè)培訓(xùn)學(xué)校
  • 技術(shù)支持:廣東智造人才信息技術(shù)科技有限公司
  • 招生熱線:0769-82801009