午夜人妻久久久久久久久,国产国拍精品亚洲A片男同,天天做天天爱天天综合网2021 ,国产精品免费_区二区三区观看

舉報查詢 登錄 | 注冊
  1. 首頁
  2. 資訊要聞
  3. AI生圖應(yīng)用,未來是“無限寬廣”嗎?

AI生圖應(yīng)用,未來是“無限寬廣”嗎?

發(fā)布時間:2023-12-11 15:52 分享到:

AI擴圖又出圈了。

近日,剪映推出“智能擴圖”功能后,讓“廢片”秒變“大片”的短視頻登上抖音挑戰(zhàn)榜高位。正當(dāng)網(wǎng)友準(zhǔn)備借此“拯救”相冊里的照片時,卻發(fā)現(xiàn)畫風(fēng)逐漸走偏,甚至把人擴成了樹干,讓人直呼“驚掉下巴”。

網(wǎng)絡(luò)視頻截圖

AI擴圖不算新鮮話題。7月,美圖秀秀“AI擴圖”功能上線,引起AI擴圖的第一次出圈。在此之前,妙鴨相機APP以能夠AI生成肖像寫真而風(fēng)靡一時。

自ChatGPT后,人們對AI相關(guān)應(yīng)用的關(guān)注,多以圖片生成類應(yīng)用引發(fā)。借用剪映“智能擴圖”的廣告語“可以用AI讓一張單調(diào)的照片變得無限寬廣”,AI圖片生成類應(yīng)用的未來也是無限寬廣嗎?

圖片社交

從事新媒體工作的樂樂,對每天的互聯(lián)網(wǎng)熱點十分熟悉。當(dāng)她看到抖音忽然給她推了不少“AI擴圖”相關(guān)視頻時,她馬上去試了試,覺得好玩又好笑:“它會給我?guī)眢@喜,不管是圖片的正常延伸,或者產(chǎn)生的一些滑稽搞笑圖片,讓我感覺有一種開盲盒的樂趣?!?/p>

早期的AI在國內(nèi),對不少用戶而言是一種看不見,摸不著的新技術(shù)。盡管AI機器人、AI模型等產(chǎn)品在不斷推出,但大多應(yīng)用于工業(yè)和企業(yè)端,大眾很難切身感受到其帶來的好處。直到近些年AI與寫作、繪畫等產(chǎn)品結(jié)合后,用戶能親自參與其中,大大增強了體驗感。

圖源:視覺中國

而相對于文字,圖片無疑是更直觀的呈現(xiàn)方式。判別一段文字的好與壞需要幾分鐘的時間來閱讀,但判別一張圖片是否滿足你的需求,或者是否帶來情緒價值,只需要幾秒鐘。

浙江工業(yè)大學(xué)計算機科學(xué)與技術(shù)學(xué)院、軟件學(xué)院副教授程振波表示:“圖片類應(yīng)用產(chǎn)生的結(jié)果比較直觀,對人的沖擊力很強。我們大腦會通過視覺、聽覺、嗅覺等來感知外部信息,其中有超過70%的外部信息來自視覺,所以以圖片方式呈現(xiàn)的應(yīng)用比較火?!?/p>

記者嘗試在一款名為“無界AI”的國產(chǎn)AI生圖工具中輸入“玫瑰花園里有一個短發(fā)小女孩,穿著藍(lán)色連衣裙在澆花”,選擇風(fēng)格和尺寸后等待30秒,一張圖片就生成了,從畫面整體美感還是布局來看,基本可以滿足日常的圖片需求。

“從商業(yè)化上來說,AI文生圖比AI文生文普遍更快一些。文生文國內(nèi)商業(yè)化做的很謹(jǐn)慎,因為文生文更容易有不‘對齊’的現(xiàn)象,比如生成反動內(nèi)容之類,監(jiān)管側(cè)也會更審慎?!背闪⒂诤贾莸臒o界AI聯(lián)合創(chuàng)始人馬千里表示。

社交,是人類生存的原始需求,而AI圖片生成類應(yīng)用所具備的社交屬性也不容小覷。以AI擴圖為例,樂樂給記者展示了部分自己和朋友的照片:“我把很多朋友的照片也導(dǎo)進(jìn)去了,如果生成的圖片很搞笑,我就會發(fā)給他或者發(fā)朋友圈,他們也會跟著一起玩?!?/p>

在社交平臺上,像樂樂這樣的年輕人不在少數(shù),這也恰恰說明了當(dāng)下“圖片社交”的火熱。互聯(lián)網(wǎng)的發(fā)展打破了機構(gòu)對互聯(lián)網(wǎng)圖像的壟斷地位,圖像生產(chǎn)權(quán)不斷“下沉”,使得人與人之間通過圖像進(jìn)行互動成為可能。人們在意網(wǎng)絡(luò)世界上自己曬出來的生活,尤其對于年輕人來說,拍照發(fā)朋友圈收獲點贊感到的快樂甚至?xí)笥诂F(xiàn)實生活的感受。

需求的考驗

紅杉資本做過一個研究,將Chatgpt、Runway等AIGC應(yīng)用和YouTube、Instagram等傳統(tǒng)應(yīng)用進(jìn)行對比,發(fā)現(xiàn)傳統(tǒng)應(yīng)用的首月用戶平均留存率為63%,AIGC應(yīng)用僅為42%。在用戶參與度上傳統(tǒng)軟件的平均DAU/MAU為51%,而AIGC應(yīng)用僅為14%。

低留存率意味著AIGC應(yīng)用的用戶粘性低,而低參與度則意味著用戶的使用頻率低。那么,為什么高熱度的風(fēng)吹過AI圖片生成類應(yīng)用后,卻不能為它帶來持續(xù)的熱度呢?

以近日出圈的AI生圖應(yīng)用“AI擴圖”為例,不少用戶表示:“剛開始的時候覺得挺新奇的,有些擴圖出來的部分也很搞笑。但時間長了之后覺得不是特別實用,沒有能具體運用到的地方,也就覺得不太好玩了?!?/p>

“最近流行的AI擴圖對于普通用戶而言,使用場景有限,‘娛樂’用途很有噱頭?!焙贾莸臒o界AI聯(lián)合創(chuàng)始人馬千里表示。

由此可見,“娛樂”屬性過強是目前大部分AI圖片生成軟件的一大痛點,雖然用戶的破圈傳播能為其帶來短期內(nèi)可觀的流量紅利,卻不能為用戶在應(yīng)用端提供長期價值。

此外,專業(yè)性能不強是部分AI圖片生成軟件在用戶端難形成穩(wěn)定需求的原因。從事視覺設(shè)計工作的小怡告訴記者,工作時會用國外的Midjourney軟件來進(jìn)行生圖:“我一般會這個軟件生成圖片來找靈感,如果尺寸不合適的話就用擴圖功能?!睂τ趪鴥?nèi)的類似應(yīng)用,她表示:“沒有使用過,Midjourney專業(yè)性相對較高,公司的同事都用這個軟件。”

圖源:視覺中國

“國內(nèi)相關(guān)應(yīng)用的精確度有待提高,這樣才能避免生圖的時候出現(xiàn)詞不達(dá)意的情況?!敝袊笆忻窨ㄖ浮薄⒄憬髮W(xué)智能教育研究中心特聘研究員張旭光向記者表示:“產(chǎn)品好不好用,還是要看它自身的大模型底座、圖片訓(xùn)練的參數(shù),由于國內(nèi)目前‘智算’算力缺乏,生成的圖片質(zhì)量就沒有那么高。”

而AIGC所帶來的法律問題,也制約著不少用戶和企業(yè)。在知識產(chǎn)權(quán)方面,今年1月,蓋蒂圖片社以“Stable Difussion”作為“Stability AI”旗下訓(xùn)練模型非法復(fù)制和處理數(shù)百萬受版權(quán)保護(hù)的圖像為由,在倫敦高等法院起訴“Stability AI”。作為全球首例 AIGC 侵權(quán)案件,引發(fā)廣泛關(guān)注。除此之外,AI侵犯肖像權(quán)、隱私權(quán)的問題也亟待解決。

那么,對于C端產(chǎn)品如何對消費者形成長線需求,張旭光認(rèn)為一方面這些應(yīng)用要不斷提升自己的專業(yè)性能,把生成圖片的細(xì)節(jié)做得更到位、更真實;另一方面則需要從用戶的實際需求出發(fā),使產(chǎn)品有實際應(yīng)用價值,比如能夠為企業(yè)實現(xiàn)降本增效,節(jié)省設(shè)計方面的人工成本。

走入尋常百姓家

近段時間,AI圖片生成行業(yè)出圈的產(chǎn)品還不止一個。

11月29日,文生視頻公司Pika推出Pika1.0,能夠生成和編輯3D動畫、動漫、卡通和電影等各種風(fēng)格的視頻。目前,Pika社區(qū)已經(jīng)發(fā)展到50萬名用戶,每周生成數(shù)百萬個視頻。

AI視頻行業(yè),近段時間整體迎來了一段“爆發(fā)期”。據(jù)不完全統(tǒng)計,從11月至今,包括Meta、字節(jié)、Stable AI等5家企業(yè)的AI視頻生成產(chǎn)品發(fā)布或迎來大更新。

“在圖片方面,AI應(yīng)用的一個趨勢是生成跟真實世界完全一樣的內(nèi)容,不僅僅是圖像的外在,甚至圖像中各個對象之間的物理作用法則也與真實世界相同。未來,生成視頻的長度會越來越長,像電影也許都可以全部AI制作”。程振波表示,隨著技術(shù)的發(fā)展,未來或許人人都有機會成為導(dǎo)演。

從文生圖、圖生圖,再到如今的文生視頻,技術(shù)的不斷創(chuàng)新也在為用戶創(chuàng)造新的需求?!艾F(xiàn)在是一個短視頻大行其道的時代,Pika的出現(xiàn)能夠讓相關(guān)企業(yè)降低生產(chǎn)成本,而且它做得連續(xù)性很好,又很逼真?!睆埿窆獗硎荆骸拔磥?,隨著技術(shù)的進(jìn)步,AI能夠通過大模型的訓(xùn)練來生成圖片、視頻甚至3D,將其運用于AR、VR等多種媒介中。”

這也就意味著,AI生圖,或許還能生成3D。

今年,清華大學(xué)元宇宙文化實驗室發(fā)布了《AIGC發(fā)展研究報告1.0版》,其中提到AIGC的未來是AIGM(AI-Generated Metaverse),也就是通過人工智能技術(shù)自動生成元宇宙空間。報告認(rèn)為,讓人類一旦徹底轉(zhuǎn)入元宇宙,AIGC就會升級為AIGM。

清華大學(xué)繼續(xù)教育學(xué)院數(shù)字化學(xué)習(xí)主管、清華大學(xué)積極心理學(xué)指導(dǎo)師、清華大學(xué)元宇宙案例實務(wù)青藍(lán)計劃發(fā)起人李璇曾在采訪中表示,AIGC可以根據(jù)文字、音頻、視頻等素材,塑造出虛擬場景、虛擬人物形象,使得元宇宙逐漸超越真實場景,到達(dá)‘虛實共存’‘靈肉雙生’的高級階段。

由此可見,AI圖片生成類產(chǎn)品的應(yīng)用遠(yuǎn)不止“擴圖”,從2D發(fā)展到3D甚至它的最終形態(tài)也許是極致元宇宙,未來似乎無限寬廣。也希望在不斷拓寬未來可能性的同時,讓AIGC應(yīng)用真正走入尋常百姓家。

(來源:"網(wǎng)信浙江”)

(鏈接:https://mp.weixin.qq.com/s/MHrwoKRxzeCEPyTtFSaccg)