OPEN AI投資Pika,文生視頻2024將會爆火?
前言:
隨著文生視頻軟件技術的不斷進步,AIGC技術對多業(yè)態(tài)應用的賦能將加速實現(xiàn)。
自人工智能推出以來,其已經逐漸從理論框架走向實際應用,其對人力和財力成本的節(jié)省效果也將在上市公司的業(yè)績中逐漸體現(xiàn)出來。
這種變化將對多個行業(yè)產生深遠影響,并為投資者提供更多有價值的投資機會。
作者 | 方文三
圖片來源 | 網(wǎng) 絡
Pika 1.0發(fā)布易用性被認可
2023年11月29日,Pika labs正式發(fā)布了其全新的文生視頻產品Pika 1.0。
該產品的視頻生成效果和易用性均得到了廣泛認可,并在市場上引起了熱烈的討論。
目前Pika社區(qū)已經發(fā)展到50萬名用戶,每周生成數(shù)百萬個視頻。
Pika的創(chuàng)始人是兩位斯坦福大學人工智能實驗室的前博士生郭文景和ChenlinMeng,目前Pika已融資3輪,估值超過2億美元。
Pika1.0的功能主要包括五方面:文本生成視頻以及圖像生成視頻、視頻之間不同風格轉換、擴展格式、改變局部內容、擴展視頻長度。
這是一次重大的產品升級,包括一個新的AI模型,能夠生成和編輯各種風格的視頻,如3D動畫、動漫、卡通和電影。
Pika1.0附帶一個工具,可延長現(xiàn)有視頻的長度或將其轉換為不同的風格,例如[真人]到[動畫],或者擴展視頻的畫布或寬高比。
支持三種模態(tài)的提示輸入,讓Pika Labs 1.0直接[對齊]了runway家族的幾乎所有的功能。
一連串投資人名單非常豪華,幾乎所有AI領域的知名公司都參與了此輪融資:
LightspeedVenturePartners領投,Homebrew
ConvictionCapital、SV參與,Angel、Ben'sBites。
Quora創(chuàng)始人AdamD'Angelo、前GitHub首席執(zhí)行官NatFriedman和Giphy聯(lián)合創(chuàng)始人AlexChung也是投資人。
OpenAI的科學家Karpathy對圖像與視頻生成領域的最新發(fā)展保持高度關注。他還參與了Pika Labs最近一輪的投資。
在發(fā)布新產品的同時,Pika Labs正式宣布已完成新一輪融資。
此次融資總額為5500萬美元,其中包括種子前輪和種子輪投資,由Nat Friedman和Daniel Gross領投。
游戲傳媒業(yè)態(tài)或率先受益
目前,一些專注于短視頻內容AI口型匹配和翻譯的應用,如HeyGen,以及近期備受矚目的Pika所展現(xiàn)的可編輯性和電影級效果,都是迅速找到與自身產品相契合的市場。
隨著AIGC技術在影視劇集、宣傳視頻等領域逐步滲透,視頻創(chuàng)作效率有望迎來顯著提升。
隨著Pika在文生視頻領域的應用驗證,業(yè)內普遍認為游戲傳媒類上市公司或將率先受益。
值得關注的是,目前多家游戲傳媒類上市公司已成功將AIGC技術運用到視頻或游戲素材的創(chuàng)作中。
賦能游戲傳媒類上市公司只是應用層落地的一個開端,AIGC與多業(yè)態(tài)相結合將是未來的趨勢。
如果該產品能夠進一步發(fā)展成為爆款應用,將有望提振市場對AI應用落地的信心。
參考文生圖在廣告領域的應用,文生視頻同樣有望推動生產力革命,降低生產成本和創(chuàng)作門檻,從而加速AIGC技術的產業(yè)化進程。
從能力的角度來看,文生視頻有望率先在短視頻和動漫兩個領域落地。這將為這兩個行業(yè)帶來更多的創(chuàng)新和可能性,進一步推動其發(fā)展。
AI視頻遠沒到GPT時刻
從目前文生視頻模型的實際應用效果來看,其生成效果在時長、分辨率和內容合理性方面仍存在一定的限制,這主要源于視頻場景的復雜性。
在數(shù)據(jù)收集方面,與文生圖模型相比,文生視頻模型需要處理的數(shù)據(jù)更為復雜。
為了學習字幕、幀照片寫實感和時間動態(tài),文生視頻模型需要大量的數(shù)據(jù)進行訓練。
同時,由于視頻長度不一,將視頻切分成固定幀數(shù)的片段會破壞文本與時間之間的對應關系,進而影響模型的訓練效果。
此外,從技術角度考慮,要想生成高質量的視頻,需要具備強大的計算與推理能力。
當前的文生視頻模型在理解視頻對象運動連貫性、日常與非日常場景變化等方面仍有待提升。
從商業(yè)模式來看,文生視頻應用的商業(yè)化模式與圖片生成相似,主要是按照生成量來定價。
與文生圖應用的早期商業(yè)化進程相比,文生視頻應用仍有很長的路要走。
整體來講,AI文生視頻領域處于極早期的狀態(tài),很難實現(xiàn)精準超長時間和視頻質量的滿足條件下完成對行業(yè)效率的提升。
各家的優(yōu)化和迭代速度都較慢
視頻是由多幀圖像組合而成,而文生視頻在文生圖的基礎上增加了時間維度,技術實現(xiàn)難度更大。
盡管像Meta和Google這樣的硅谷AI巨頭在文生視頻領域進展緩慢,它們分別推出的Make-A-Video和Phenaki都尚未公測。
文生視頻的底層模型和技術仍在不斷優(yōu)化中,尚未篩選出最優(yōu)模型。
該技術主要經歷了基于GAN和VAE、基于Transformer模型、基于擴散模型三個階段。
目前主流的文生視頻模型主要依托Transformer模型和擴散模型。
基于Transformer的代表Phenaki突破了視頻生成時長限制,但效果相對粗糙缺少細節(jié);
而基于擴散模型的代表Make-AVideo則更注重提升視頻質量,但其視頻時長均在4s以內。
目前可公測的文生視頻應用較少,僅有RunwayGen-2、ZeroScope及Pika Labs等少數(shù)幾個。
這些應用存在一些共同問題,如復雜人物動作生成幀連續(xù)效果較差、非日常場景的視頻架構能力連續(xù)能力一般、多主體視頻生成缺乏邏輯連續(xù)性等。
目前,PiKa等AI文生視頻工具都處于1.0之下的版本。
相對于競爭對手如runwayntwo等有更好的視頻分辨率和影視感,但對靜態(tài)圖片的處理能力相對較差。
但它在專業(yè)化的視頻內容生產上還有很大的距離,需要大量的數(shù)據(jù)和模態(tài)以及專業(yè)能力的結構來完成。
總體而言,文生視頻的商用化程度較低。但從圖片生成的應用來看,其商業(yè)前景值得期待。
圖片生成類應用在多模態(tài)大模型中表現(xiàn)出較強的收費能力,應用數(shù)量上占比最高。
目前唯一收費的文生視頻應用(Runway Gen-2)的商業(yè)模式與圖片生成趨同,即主要按照生成量定價。
結尾:
當前,市場普遍認為AI應用已經逐步步入成熟期,但尚未出現(xiàn)具有顛覆性的殺手級應用。
盡管如此,AI應用的發(fā)展仍處于早期階段,對應的算力需求遠未達到頂峰。
部分資料參考:硅基研究室:《Pika爆火,但AI視頻還沒到「GPT時刻」》,半兩財經:《Pika爆火背后“女兒概念股”凸顯國產AI應用焦慮》,電子發(fā)燒友網(wǎng):《文生視頻Pika 1.0爆火!一句話生成視頻,普通人也能當“導演”》
原文標題 : AI芯天下丨分析丨OPEN AI投資Pika,文生視頻2024將會爆火?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
-
10月31日立即下載>> 【限時免費下載】TE暖通空調系統(tǒng)高效可靠的組件解決方案
-
即日-11.13立即報名>>> 【在線會議】多物理場仿真助跑新能源汽車
-
11月28日立即報名>>> 2024工程師系列—工業(yè)電子技術在線會議
-
12月19日立即報名>> 【線下會議】OFweek 2024(第九屆)物聯(lián)網(wǎng)產業(yè)大會
-
即日-12.26火熱報名中>> OFweek2024中國智造CIO在線峰會
-
即日-2025.8.1立即下載>> 《2024智能制造產業(yè)高端化、智能化、綠色化發(fā)展藍皮書》
推薦專題
- 高級軟件工程師 廣東省/深圳市
- 自動化高級工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 銷售總監(jiān)(光器件) 北京市/海淀區(qū)
- 激光器高級銷售經理 上海市/虹口區(qū)
- 光器件物理工程師 北京市/海淀區(qū)
- 激光研發(fā)工程師 北京市/昌平區(qū)
- 技術專家 廣東省/江門市
- 封裝工程師 北京市/海淀區(qū)
- 結構工程師 廣東省/深圳市