TIME Studios耗時三年製作馬丁.路德.金在「華盛頓大遊行」的著名演講《我有一個夢想》(I Have a Dream)的VR體驗。將馬丁.路德.金的虛擬影像投放到符合史實的華盛頓國家廣場中,透過即時運算技術使觀眾可透過無線VR,看到最真實的馬丁.路德.金。倘若需大幅縮短製程時間,而改以4DViews技術製作,又該如何進行?

簡介

曾榮獲艾美獎的TIME Studios發起了一項名為《The March》的專案,並與VALIS Studio、Verizon Media旗下的RYOT Studio、Digital Domain、JuVee Productions等知名公司合作,根據1963年馬丁.路德.金在「華盛頓大遊行」時的著名演講《我有一個夢想》(I Have a Dream)進行重現。這項專案製作歷時三年,期讓觀眾透過虛擬實境,沉浸於遊行隊伍當中,臨場體驗近代人權史最重要的演講。

整個專案最重要的部分,是重建馬丁.路德.金的虛擬形象,也是頗為困難的大工程。因為人體和容貌每個月可能都有些許變化,為了完整呈現馬丁.路德.金的虛擬形象,藝術家們大量地蒐集他演講和遊行的影像,在當時還是以黑白照片為主的年代,盡可能找出彩色照片,並彙整成資料庫。

這次的虛擬形象重建是由Digital Domain製作,據悉光是馬丁.路德.金的高精度3D虛擬形象,就動用了7位動畫師,耗時3個月完成。透過Masquerade掃描技術、DI4D系統捕捉臉部表情,再由演說家弗格森(Stephon Ferguson)穿著動態捕捉裝,進行全長16分鐘的演講,Digital Domain再使用此臉部表情捕捉的動作資訊,同步映射到馬丁.路德.金的虛擬形象上。最後,FX團隊再使用此臉部和身體的動作資訊,到3D軟體Maya和Houdini上進行細節的完善和布料模擬。在弗格森演講結束後,Digital Domain也將馬丁.路德.金的虛擬形象匯入Unreal Engine,放到符合史實的華盛頓國家廣場中,透過即時運算在後台執行,確保觀眾可透過無線VR一體機設備,看到最真實的馬丁.路德.金,為所有觀眾提供了更加自由、無負擔的移動式VR體驗。

假設《The March》專案透過4DViews技術執行的話,又會如何進行呢?在參考大量影像資料庫後,依據馬丁.路德.金的容貌找尋高相似度的演員,再配合電影等級的特效化妝技術,重現歷史人物的容貌,就可以直接進入4DViews虛擬攝影棚進行動態立體捕捉,如此一來可省略臉部表情匹配、動作匹配、布料模擬、貼圖繪製等程序,最後只要交由後製伺服器電腦運算即可。在製作時間上更可能從原來的數個月,減少成數週甚至是數天;如需在VR一體機上運行的話,4DViews產出的檔案格式,也可提供完整的優化方式,甚至能在目前大多數的手機應用上運行。


參考資料:

TIME-The March:https://time.com/the-march/