用戶名: 密碼: 驗證碼:

多模態(tài)AI下一步是3D內(nèi)容生成? 新工具已火爆GitHub

摘要:多模態(tài)內(nèi)容生成展示了AIGC廣闊的應(yīng)用空間, 3D有望成為下一個實現(xiàn)突破的模態(tài)。

  ICC訊 多模態(tài)內(nèi)容生成展示了AIGC廣闊的應(yīng)用空間, 3D有望成為下一個實現(xiàn)突破的模態(tài)。

  近期,一款名為DUSt3R的AI新工具火爆微軟旗下GitHub平臺,只需2張圖片2秒鐘就能完成3D重建,無需測量任何額外數(shù)據(jù)。這款A(yù)I工具才上線沒多久就登上GitHub熱榜第二。有網(wǎng)友實測,拍兩張照片就重建出了他家的廚房,整個過程耗時不到2秒鐘。

  3D模型生成通常需要MVS估計相機參數(shù),并在3D空間中對相應(yīng)的像素進行三角測量。該產(chǎn)品同原來不一樣的是,它是一種對任意圖像進行3D立體重建的全新范式,不需要相機校準以及視點姿態(tài)等先驗信息。從而可以實現(xiàn)提供兩個以上圖像的情況下,進行3D建模重建。

  3D建模指的是使用軟件來創(chuàng)建三維對象或形狀的數(shù)學(xué)表示形式的過程。3D建模技術(shù)和3D模型廣泛應(yīng)用于醫(yī)療、游戲、影視、建筑、產(chǎn)品設(shè)計還是虛擬現(xiàn)實等領(lǐng)域。

  AI+3D建模是利用人工智能技術(shù),自動化地生成高質(zhì)量的3D模型的過程。傳統(tǒng)的3D建模需要藝術(shù)家花費大量時間和精力進行手工創(chuàng)作,而AI生成則通過訓(xùn)練機器學(xué)習(xí)算法,使計算機能夠自動學(xué)習(xí)和生成3D模型,極大地提高了效率和準確性,同時降低了整個制作成本。

  用戶只需要輸入關(guān)鍵詞或者上傳一張2D圖片,這些工具就能在段時間內(nèi)直接生成多個比較初步的3D模型,而用戶滿意的話,則可以選擇進一步生成精度更高的3D模型。

  當下的3D內(nèi)容生成工具已經(jīng)不少,目前海外在AI+3D技術(shù)上主要分為工業(yè)場景探索與非工業(yè)場景探索。非工業(yè)場景應(yīng)用探索主要以谷歌的DreamFusion和英偉達的Magic3D為代表,主要面向游戲、元宇宙中的3D資產(chǎn)設(shè)計;工業(yè)場景應(yīng)用則主要以衍生式設(shè)計軟件為主,如PTC的Creo以及Autodesk的Fushion360均提供衍生式設(shè)計能力。

  國內(nèi)比較知名的3D生成AI模型包括:字節(jié)跳動研究團隊開發(fā)的MVDream;由幻方量化旗下的一家大模型企業(yè)DeepSeek開發(fā)的DreamCraft3D;影眸科技從2016年開始進行人臉采集生成3D模型的業(yè)務(wù)。據(jù)該公司CTO張啟煊介紹,其人臉生成3D的服務(wù),應(yīng)該是目前國內(nèi)3D生成里面唯一一個走進游戲生產(chǎn)端的產(chǎn)品……

  用戶輸入文本:“奔跑在樹林中,搞笑的豬頭和孫悟空身體的混合形像”,DreamCraft3D生成的內(nèi)容

  從ChatGPT代表的文生文,到DALL?E代表的文生圖,再到Sora代表的文生視頻,多模態(tài)已經(jīng)成為了共識的AI發(fā)展趨勢。中泰證券旗幟鮮明地提出,繼文本、代碼、圖片、視頻之后,下一個有可能實現(xiàn)突破的模態(tài)大概率是3D,“SORA之后的下一步:文生3D”。未來隨著數(shù)字化的持續(xù)發(fā)展,3D資產(chǎn)數(shù)量的快速增長,3D建模的自動化生成或成為新的發(fā)展風(fēng)口,而以各種大模型為代表的AIGC生產(chǎn)能力賦能3D建模,以及文生3D需求持續(xù)增長,都將促進AI賦能3D建模的快速發(fā)展。

  不過AI+3D建模技術(shù)當前也面臨較多挑戰(zhàn),如3D數(shù)據(jù)與資產(chǎn)缺乏、AI訓(xùn)練難度高、AI實時渲染技術(shù)有限、商業(yè)化落地難度大等問題。

  該機構(gòu)進一步稱,產(chǎn)業(yè)視角建議持續(xù)跟蹤關(guān)注文生3D建模領(lǐng)域的進展,標的視角BIM領(lǐng)域重點關(guān)注廣聯(lián)達、盈建科;CAX領(lǐng)域重點關(guān)注中望軟件、索辰科技、浩辰軟件;EDA領(lǐng)域重點關(guān)注華大九天、概倫電子。

內(nèi)容來自:財聯(lián)社
本文地址:http://m.odinmetals.com//Site/CN/News/2024/03/05/20240305030430945542.htm 轉(zhuǎn)載請保留文章出處
關(guān)鍵字:
文章標題:多模態(tài)AI下一步是3D內(nèi)容生成? 新工具已火爆GitHub
1、凡本網(wǎng)注明“來源:訊石光通訊網(wǎng)”及標有原創(chuàng)的所有作品,版權(quán)均屬于訊石光通訊網(wǎng)。未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對于經(jīng)過授權(quán)可以轉(zhuǎn)載我方內(nèi)容的單位,也必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標注作者信息和本站來源。
2、免責(zé)聲明,凡本網(wǎng)注明“來源:XXX(非訊石光通訊網(wǎng))”的作品,均為轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責(zé)。因可能存在第三方轉(zhuǎn)載無法確定原網(wǎng)地址,若作品內(nèi)容、版權(quán)爭議和其它問題,請聯(lián)系本網(wǎng),將第一時間刪除。
聯(lián)系方式:訊石光通訊網(wǎng)新聞中心 電話:0755-82960080-168   Right