首頁 行業資訊正文

浙大相芯聯合實驗室兩篇論文入選SIGGRAPH Asia 2019

52ai 行業資訊 2019-11-20 09:39:09 3982 0

第十二屆亞洲計算機圖形學與交互技術交流大會在澳大利亞布里斯班會議展覽中心拉開帷幕。由國際圖形與互動技術組織(ACM SIGGRAPH)主辦的SIGGRAPH Asia圖形和互動技術展覽及會議是世界上影響最廣、規模最大,同時也是最權威的一個集科學、藝術、商業于一身的CG及互動技術展覽及會議。據悉,今年SIGGRAPH Asia的論文入選名單已經公布,其中,來自“浙江大學—相芯科技智能圖形計算聯合實驗室”的兩篇論文入選,論文內容涵蓋基于視頻的3D動態頭發建模、對未知幾何與材質進行高效高質量掃描等一系列最新研究成果。

人工智能和計算機圖形學的融合與創新,是相芯科技一直努力的方向。2018年7月,相芯科技與浙江大學成立了聯合實驗室,雙方在智能圖形計算方向開展了深入合作,深耕于智能圖形技術創新。從2018年開始,浙大相芯聯合實驗室每年都有論文入選SIGGRAPH Asia。

此次SIGGRAPH Asia 2019,浙大相芯聯合實驗室入選兩篇論文分別為《Dynamic Hair Modeling from Monocular Videos using Deep Neural Networks》(基于深度神經網絡的單目視頻動態頭發建模)和《Learning Efficient Illumination Multiplexing for Joint Capture of Reflectance and Shape》(基于深度學習的高效、高精度三維物體掃描)兩項新技術亮相SIGGRAPH Asia 大會,突破了數據驅動的全自動高質量發型建模和智能采集裝置掃描復雜三維物體建模兩大難題,推動了相關研究領域的發展。

(動態頭發模型與輸入的視頻幀)

過去,動態頭發重建的挑戰主要來自頭發運動和幾何形狀的高度復雜性。當前最新技術要求在受控環境中使用多個攝像頭和燈光陣列。復雜的硬件設置(21個GoPro攝像機和6個LED陣列)將建模過程限制于專業用戶。在《Dynamic Hair Modeling from Monocular Videos using Deep Neural Networks》這篇論文中,浙大相芯聯合實驗室引入了一種基于深度學習的全新框架,用于對單眼視頻中的動態頭發進行建模。該視頻不需要通過專業的相機來采集數據,可以由商用攝像機捕獲或從網絡上下載。通過這項技術生成的動態頭發模型和輸入的視頻極為相似。

這項技術,使得普通用戶也能完成動態頭發視頻的采集,創作自己的動態發型在社交媒體使用。硬件成本的降低和高逼真的動態效果,使得數字化動態形象在電影、廣告、社交媒體擁有更加廣泛的應用空間。

(使用浙大相芯聯合實驗室自主研發的智能采集裝置掃描復雜三維物體的結果)

同時對未知幾何與材質進行高效高質量掃描重建有很高的挑戰性,是計算機圖形學和視覺領域的一大公認難題?!禠earning Efficient Illumination Multiplexing for Joint Capture of Reflectance and Shape》這篇論文提出了一種高效高精度幾何與材質聯合采集框架,能對整個軟硬件系統進行端到端聯合優化。

通過浙大相芯聯合實驗室的這項圖形學繪制技術,可高效的從真實世界中獲取復雜三維物體的數字化模型和高質量的材質,甚至還可以還原出物體在任何視角和光照條件下的高真實感外觀。在例如文物數字化保護、電子商務展示、電影視覺特效和電子游戲等領域中將有著廣泛的應用前景。

這兩篇論文將為智能圖形技術領域帶來實際應用價值?;谝曨l的3D動態頭發建模、對未知幾何與材質進行高效高質量掃描兩項技術突破了計算機圖形學的技術瓶頸,所覆蓋到的行業將會得到效率和效果的改變,并且可以有效降低制作成本。

在智能圖形技術與各行各業相互融合、相互滲透的背景下,依托雄厚研發實力,相芯科技與浙江大學還將繼續深耕于智能圖形技術創新,為消費級應用提供內容創作工具、平臺和解決方案,為更多領域提供3D內容生成與互動的行業解決方案。

版權聲明

本文僅代表作者觀點,不代表本站立場。
本文系作者授權發表,未經許可,不得轉載。

評論

白金岛跑得快下载