英國諾丁漢大學(University of Nottingham )與金士頓大學(Kingston University)的研究人員在近日釋出一個演算法,只要輸入一張2D的大頭照,就能建立人臉的3D模型,同時推出一示範網站來展示該演算法的成效。

研究人員指出,3D臉部重建是個非常困難的電腦視覺問題,目前的系統通常需要許多的臉部影像,也面臨各種挑戰,像是臉部位置、表情或不均勺照明的對應,傳統上的建模與擬合方法都很複雜而且效率不高。

因此,這群研究人員改用人工智慧(AI)來簡化上述流程,他們以2D影像及3D的臉部模型來訓練卷積神經網路(Convolutional Neural Network,CNN),只要一張2D的大頭照,不需要精確的對準,也不必建立圖像間的對應關係,繞過建模及擬合程序,直接重建3D的臉部幾何形狀,且適用於任何的臉部位置及表情。

研究人員已將該專案的演算法透過GitHub分享,採用相對寬鬆的MIT授權(MIT License),系統要求為Linux、具備CUDA能力的Nvidia GPU、Torch7與MATLAB,也可在macOS上執行,但不確定是否相容於Windows。

此外,一般使用者也能藉由研究人員所設立的示範網站一窺該專案的奧妙,可直接點擊範例大頭照或是上傳自己的照片來檢視重建後的3D樣子。該站上從9月7日上線迄今,使用者已上傳了超過28萬張的大頭照,為保障隱私,該站亦強調會在20分鐘內刪除使用者所上傳的影像與重建後的3D模型。

熱門新聞

Advertisement