訂閱
糾錯
加入自媒體

OPEN AI投資Pika,文生視頻2024將會爆火?

2023-12-25 09:31
Ai芯天下
關注

前言:

隨著文生視頻軟件技術的不斷進步,AIGC技術對多業(yè)態(tài)應用的賦能將加速實現(xiàn)。

人工智能推出以來,其已經逐漸從理論框架走向實際應用,其對人力和財力成本的節(jié)省效果也將在上市公司的業(yè)績中逐漸體現(xiàn)出來。

這種變化將對多個行業(yè)產生深遠影響,并為投資者提供更多有價值的投資機會。

作者 | 方文三

圖片來源 |  網(wǎng) 絡 

Pika 1.0發(fā)布易用性被認可

2023年11月29日,Pika labs正式發(fā)布了其全新的文生視頻產品Pika 1.0。

該產品的視頻生成效果和易用性均得到了廣泛認可,并在市場上引起了熱烈的討論。

目前Pika社區(qū)已經發(fā)展到50萬名用戶,每周生成數(shù)百萬個視頻。

Pika的創(chuàng)始人是兩位斯坦福大學人工智能實驗室的前博士生郭文景和ChenlinMeng,目前Pika已融資3輪,估值超過2億美元。

Pika1.0的功能主要包括五方面:文本生成視頻以及圖像生成視頻、視頻之間不同風格轉換、擴展格式、改變局部內容、擴展視頻長度。

這是一次重大的產品升級,包括一個新的AI模型,能夠生成和編輯各種風格的視頻,如3D動畫、動漫、卡通和電影。

Pika1.0附帶一個工具,可延長現(xiàn)有視頻的長度或將其轉換為不同的風格,例如[真人]到[動畫],或者擴展視頻的畫布或寬高比。

支持三種模態(tài)的提示輸入,讓Pika Labs 1.0直接[對齊]了runway家族的幾乎所有的功能。

圖片

一連串投資人名單非常豪華,幾乎所有AI領域的知名公司都參與了此輪融資:

LightspeedVenturePartners領投,Homebrew

ConvictionCapital、SV參與,Angel、Ben'sBites。

Quora創(chuàng)始人AdamD'Angelo、前GitHub首席執(zhí)行官NatFriedman和Giphy聯(lián)合創(chuàng)始人AlexChung也是投資人。

OpenAI的科學家Karpathy對圖像與視頻生成領域的最新發(fā)展保持高度關注。他還參與了Pika Labs最近一輪的投資。

在發(fā)布新產品的同時,Pika Labs正式宣布已完成新一輪融資。

此次融資總額為5500萬美元,其中包括種子前輪和種子輪投資,由Nat Friedman和Daniel Gross領投。

圖片

游戲傳媒業(yè)態(tài)或率先受益

目前,一些專注于短視頻內容AI口型匹配和翻譯的應用,如HeyGen,以及近期備受矚目的Pika所展現(xiàn)的可編輯性和電影級效果,都是迅速找到與自身產品相契合的市場。

隨著AIGC技術在影視劇集、宣傳視頻等領域逐步滲透,視頻創(chuàng)作效率有望迎來顯著提升。

隨著Pika在文生視頻領域的應用驗證,業(yè)內普遍認為游戲傳媒類上市公司或將率先受益。

值得關注的是,目前多家游戲傳媒類上市公司已成功將AIGC技術運用到視頻或游戲素材的創(chuàng)作中。

賦能游戲傳媒類上市公司只是應用層落地的一個開端,AIGC與多業(yè)態(tài)相結合將是未來的趨勢。

如果該產品能夠進一步發(fā)展成為爆款應用,將有望提振市場對AI應用落地的信心。

參考文生圖在廣告領域的應用,文生視頻同樣有望推動生產力革命,降低生產成本和創(chuàng)作門檻,從而加速AIGC技術的產業(yè)化進程。

從能力的角度來看,文生視頻有望率先在短視頻和動漫兩個領域落地。這將為這兩個行業(yè)帶來更多的創(chuàng)新和可能性,進一步推動其發(fā)展。

圖片

AI視頻遠沒到GPT時刻

從目前文生視頻模型的實際應用效果來看,其生成效果在時長、分辨率和內容合理性方面仍存在一定的限制,這主要源于視頻場景的復雜性。

在數(shù)據(jù)收集方面,與文生圖模型相比,文生視頻模型需要處理的數(shù)據(jù)更為復雜。

為了學習字幕、幀照片寫實感和時間動態(tài),文生視頻模型需要大量的數(shù)據(jù)進行訓練。

同時,由于視頻長度不一,將視頻切分成固定幀數(shù)的片段會破壞文本與時間之間的對應關系,進而影響模型的訓練效果。

此外,從技術角度考慮,要想生成高質量的視頻,需要具備強大的計算與推理能力。

當前的文生視頻模型在理解視頻對象運動連貫性、日常與非日常場景變化等方面仍有待提升。

從商業(yè)模式來看,文生視頻應用的商業(yè)化模式與圖片生成相似,主要是按照生成量來定價。

與文生圖應用的早期商業(yè)化進程相比,文生視頻應用仍有很長的路要走。

整體來講,AI文生視頻領域處于極早期的狀態(tài),很難實現(xiàn)精準超長時間和視頻質量的滿足條件下完成對行業(yè)效率的提升。

各家的優(yōu)化和迭代速度都較慢

視頻是由多幀圖像組合而成,而文生視頻在文生圖的基礎上增加了時間維度,技術實現(xiàn)難度更大。

盡管像Meta和Google這樣的硅谷AI巨頭在文生視頻領域進展緩慢,它們分別推出的Make-A-Video和Phenaki都尚未公測。

文生視頻的底層模型和技術仍在不斷優(yōu)化中,尚未篩選出最優(yōu)模型。

該技術主要經歷了基于GAN和VAE、基于Transformer模型、基于擴散模型三個階段。

目前主流的文生視頻模型主要依托Transformer模型和擴散模型。

基于Transformer的代表Phenaki突破了視頻生成時長限制,但效果相對粗糙缺少細節(jié);

而基于擴散模型的代表Make-AVideo則更注重提升視頻質量,但其視頻時長均在4s以內。

目前可公測的文生視頻應用較少,僅有RunwayGen-2、ZeroScope及Pika Labs等少數(shù)幾個。

這些應用存在一些共同問題,如復雜人物動作生成幀連續(xù)效果較差、非日常場景的視頻架構能力連續(xù)能力一般、多主體視頻生成缺乏邏輯連續(xù)性等。

目前,PiKa等AI文生視頻工具都處于1.0之下的版本。

相對于競爭對手如runwayntwo等有更好的視頻分辨率和影視感,但對靜態(tài)圖片的處理能力相對較差。

但它在專業(yè)化的視頻內容生產上還有很大的距離,需要大量的數(shù)據(jù)和模態(tài)以及專業(yè)能力的結構來完成。

總體而言,文生視頻的商用化程度較低。但從圖片生成的應用來看,其商業(yè)前景值得期待。

圖片生成類應用在多模態(tài)大模型中表現(xiàn)出較強的收費能力,應用數(shù)量上占比最高。

目前唯一收費的文生視頻應用(Runway Gen-2)的商業(yè)模式與圖片生成趨同,即主要按照生成量定價。

圖片

結尾:

當前,市場普遍認為AI應用已經逐步步入成熟期,但尚未出現(xiàn)具有顛覆性的殺手級應用。

盡管如此,AI應用的發(fā)展仍處于早期階段,對應的算力需求遠未達到頂峰。

部分資料參考:硅基研究室:《Pika爆火,但AI視頻還沒到「GPT時刻」》,半兩財經:《Pika爆火背后“女兒概念股”凸顯國產AI應用焦慮》,電子發(fā)燒友網(wǎng):《文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當“導演”》

       原文標題 : AI芯天下丨分析丨OPEN AI投資Pika,文生視頻2024將會爆火?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內容
文章糾錯
x
*文字標題:
*糾錯內容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號