Nvidia在GTC大會展示一段用AI模擬產生的行車路況影像,供自駕車做訓練。這個訓練影片使用Omniverse模擬平臺和Modulus框架在虛擬世界中建立高擬真訓練場景,不論是道路上行人、路旁的車輛、路燈、季節天氣的細節變化都十分講究,幾乎已經到了真假難辨的地步。(圖片來源/Nvidia)

「如果想用3D繪圖軟體模擬拿水倒入玻璃杯的動作,會有多難?」光是一個看似簡單持杯動作,一根手指模型設計就需要超過6千個四面體幾何結構組成,才能夠控制手指尖在玻璃接觸面上產生磨擦力,用磨擦力拿起水杯。杯體中更使用了粒子技術,來模擬液體從高處往下流入杯內的動態變化,半杯水需要使用超過2萬個水粒子,才能模擬出水在杯內流動的狀態,甚至要把所有動作模仿維妙維肖,背後需要考慮到許多技術細節,以及各種物理相互間的作用才能辦到。

 

 

這個倒水3D模擬畫面(如上面影片中所示),其實是今年4月GTC技術大會主題演講上,Nvidia執行長黃仁勳的一張投影簡報內容,甚至不只這張簡報,整場演講簡報中出現所有硬體產品、場景、圖表、影像,都是經過3D模擬效果,黃仁勳更有14秒的演講片段,是站在自家廚房介紹產品,也都是經過模擬合成,而不是真的本人在廚房講話。

Nvidia刻意不明講,直到3個月前一段當時幕後製作影片公開後,這件事才曝光,許多人驚覺到原來當天演講簡報和影片都是模擬效果,甚至連黃仁自己都是。所有簡報模擬和黃仁勳虛擬分身,都是在3D設計協作和模擬的Omniverse平臺中進行模擬製作和畫面渲染的成果,透過這項技術展示,也讓外界看見Omniverse在3D繪圖和物理模擬的出色表現。

尤其,近兩年,一種以架空世界概念興起的元宇宙(Metaverse)新趨勢,逐漸成為科技產業的熱門話題,包括微軟、Nvidia、臉書等許多網路或科技大廠都開始提及Metaverse,甚至前陣子臉書更將公司更名為Meta,高調宣誓要打造下一代的Metaverse社交世界。

但想要在實體世界之外打造出一個或多元Metaverse虛擬世界,未來更需要這種高精細度3D繪圖和物理模擬呈現技術,才能建造出不亞於真實世界的逼真場景和感官體驗,來提供人們彼此互動交流。

儘管整場GTC技術大會,黃仁勳都沒談論Metaverse,但會後一場線上記者會上,黃仁勳提出明確的發展策略方向。他表示,我們提供的是建立Metaverse世界所需的技術基礎設施,而不是應用程式平臺,「而Omniverse是一個設計引擎、技術引擎和技術平臺,是任何一家企業都能用的模擬虛擬世界引擎,不論是物流公司、社交平臺或消費娛樂等行業都能用。」他這麼說。

在黃仁勳眼中,未來虛擬世界規模將遠大實體世界,而且這樣的虛擬世界會很多,除了聚會和遊戲娛樂用途,許多虛擬世界將提供科學家研究、藝術創作和企業應用。例如人們可以在裡面買各種3D物件,就像在網路商店購買數位音樂或電子書,還能買房、買傢具和進行藝術創作。不同虛擬世界能彼此互動,透過USD資料交換格式將人們和運算連到同個虛擬世界,或從其中一個虛擬世界進到其他虛擬世界。他說,操作起來,就像使用網頁超連結那樣容易。所有虛擬世界的建立,就是靠這套Omniverse引擎。

打造高度擬真呈現的企業數位分身應用

儘管不像Metaverse世界觀龐大,早從3~4年前,一些大型企業就已經開始導入類似技術,來複製營運或生產環境局部實體的數位分身(Digital Twin)做應用。製造業發展最早,透過使用如VR或AR等虛實混合技術發展生產工廠數位分身,在產品設計模擬、製造流程規畫、產線建置規畫、AR檢修、營運戰情室,以及VR虛擬展間等都有相關應用,甚至臺灣主要電子代工與高科技半導體製造大廠這1~2年都開始用。

市面上已有不少企業級數位分身產品或方案推出,如達梭3DExperience體驗平臺,或者是PTC的ThingWorx與PTC Creo軟體已經在幾年前提供或支援這類功能。大型公有雲業者去年也開始搶進,例如微軟Azure Digital Twins公雲服務已經正式上線,可供企業採用。ERP巨頭SAP也和Ansys合推數位分身方案。這些方案多以製造業為主。

除了打造Metaverse世界所需的技術引擎,Nvidia近年來也瞄準數位分身企業戰場,靠的就是Omniverse模擬平臺,提供企業所需的軟硬基礎設施,至今包括愛立信、BMW、西門子等都有用。甚至黃仁勳更誇口:「Omniverse將成為顛覆4千萬名創作設計者未來協作的設計引擎。」

自從去年底開放公測以來,Omniverse平臺至今累積超過70,000次下載,多達500家企業有用,企業版今年11月也正式推出上線。

用新框架加速AI建立物理模型,比傳統模擬快1,000到10萬倍

Nvidia這些年光線追蹤和模擬採用的RTX技術,也整合到Omniverse平臺中,因為企業數位分身需要高度擬真呈現,才能夠幫助企業思考和洞察。該平臺還結合遊戲物理加速的即時物理引擎PhysX,能對不同層面的物理效果提供更高效能模擬,例如流體模擬、FEM軟體模擬、機器人關節模擬等。這使得用Omniverse平臺產出的數位分身,比其他競爭對手擁有更多真實場景的細節。

在本次大會中,Nvidia還釋出全新ML物理模型框架Modulus,希望透過AI加速物理模型開發及提高模型精準度。Nvidia宣稱,透過這個新框架,在企業數位分身應用中,以此模型模擬物理的速度,比傳統模擬軟體快1,000到10萬倍。該框架支援如PyTorch、TensorFlow主流ML框架,也能透過cuDNN進行GPU加速訓練,並可擴充至多GPU伺服器或多節點叢集。

使用該框架後,在Omniverse模擬平臺中可加快大型系統的數位分身產生物理效果的速度,也能根據觀測資料模擬出高度逼真的物理模型,來挖掘更多數位分身應用可能,像是利用模擬發電廠的水蒸氣循環運作情形,找出影響蒸氣機器發生鏽蝕現象的時間和範圍,進而減少日常維護和停機中斷時間。

除了企業數位分身,Nvidia還有更大的目標,要用Omniverse打造地球數位分身,供科學家研究全球氣候變遷。黃仁勳也說:「Omniverse架構可以是資料中心規模,甚至有一天可以發展成行星規模(planetary scale)。」

不光是企業數位分身與科學研究,自駕車與機器人用數位分身訓練,同樣需要高度擬真、高準確度,確保虛擬環境和真實環境沒有落差。Omniverse平臺也提供這方面的應用。

新發表Omniverse Replicator訓練模擬框架,就能產生模擬真實世界所需的物理數據,提供自駕車或機器人的數位分身在虛擬環境中做訓練。

Nvidia現場還展示一段用AI模擬產生的行車路況影像,供自駕車做訓練,該影片使用Omniverse模擬平臺和Modulus框架在虛擬世界中建立高擬真訓練場景,用AI模擬出來的場景,不論是道路上行人、路旁的車輛、路燈、季節天氣的細節變化都十分講究,幾乎是已經到了真假難辨的地步。

 

 

在功能更新方面,Omniverse這次也有一些重要更新或新功能釋出。像是推出一支行動App,能結合Omniverse技術,協助企業迅速建立符合真實物理情況的虛擬展間;在管理上新增一個Omniverse Farm系統管理平臺,可用來調度和處理各種運算批次任務(如3D渲染、合成AI訓練數據或分散式運算),且能橫跨多個不同系統,包括工作站、伺服器、裸機或虛擬機。Omniverse最新還支援行動AR功能,可以將影像串流到手機或AR眼鏡上顯示。之後也能支援光追技術VR功能。不過目前多數功能是Beta版本。

不僅如此,Omniverse還開始提供AI語音助理的虛擬分身製作服務,企業只要透過Omniverse Avatar虛擬分身模擬平臺,就可以很容易打造出擁有虛擬分身的AI語音助理,搭配逼真的3D 臉部動畫和動作,來提供如餐廳點餐、線上客服或視訊會議口譯等服務。


熱門新聞

Advertisement