儘管不像4月GTC技術大會,有用自己的虛擬分身登場,在秋季GTC大會上,同樣出現另一個黃仁勳迷你分身,雖然一眼就可看出不是本人,但舉手投足都將本尊模仿唯妙唯肖,連講話語氣也十分相似,還能代替他與一群專家及科學家流暢交談,回答各種艱深提問,像是對改善氣候變遷看法等,都難不倒它。(圖片來源/Nvidia)

今年4月一場線上GTC技術大會上,Nvidia執行長黃仁勳有14秒的演講,是用自己的虛擬分身上陣,Nvidia前陣子才揭露,讓許多當時參加的開發者和全球媒體都大吃一驚,用3D電腦繪圖結合AI模擬出來的虛擬分身已經到了幾可亂真的地步,更在網路上引起熱烈討論。

在接下來11月中旬GTC秋季大會上,所有人都在猜測他這次會不會同樣以虛擬分身登場,甚至從一出場開始,就仔細觀察他的臉部表情、手勢、身體動作,任何細節都不放過,想從中找出破綻,但沒有人有把握。直到會後線上記者會上,媒體向他求證時,黃仁勳笑說:「除了我以外,全都是假的。」

Q版造型的Toy Me迷你分身,能回答專家艱澀提問

儘管沒有用自己的虛擬分身介紹產品,但在這場GTC大會上,同樣出現另一個黃仁勳迷你分身Toy-Me,雖然一眼就可看出不是本人,但舉手投足都將本尊模仿唯妙唯肖,連講話語氣也十分相似,還能代表他與一群專家及科學家流暢交談,回應各種艱深提問,像是如何改善氣候變遷等問題,都難不倒它。

不論是黃仁勳虛擬分身或Toy Me,都是透過Nvidia的3D設計協作與模擬的Omniverse平臺所製作完成, 甚至不只是虛擬分身,Omniverse現在還能用於建造Metaverse虛擬世界, 以即時3D繪圖、AI和物理模擬出逼真的動態場景,讓人有如置身真實世界中的感受。Omniverse企業版在11月正式推出上線。Omniverse也是黃仁勳這場主題演講中的7大重點之一。

圖片來源/Nvidia
在年尾舉行的GTC秋季發布會中,Nvidia執行長黃仁勳的主題演講,主要圍繞7大技術主軸,涵蓋量子運算 、AI推論平臺、語音AI、超大語言模型(LLM)、虛擬世界模擬引擎Omniverse、機器人平臺以及高速網路平臺。

兩大機器學習開發新框架,加速建立物理ML與超大LLM語言模型

回顧這些年運算發展,黃仁勳表示,加速運算一直都在試圖處理完整技術堆疊(full stack)的運算問題,考慮到不同應用、不同產業,而且跨雲端到邊緣,不論是GPU、CPU和DPU晶片,也不分DGX、HGX、EGX、RTX、AGX系統等,都需要各種優化的SDK,來提供這些行業或產業做加速運算使用。他也說到,目前有3百萬名開發者使用該公司150個加速運算SDK用於繪圖、AI和機器人應用。

這次技術大會上,Nvidia更加碼釋出65個新的或更新的SDK, 提供各產業使用。舉例來說,ReOpt是物流倉儲搬運機器人用的SDK,可優化機器人移動與行駛路線,以及為機器學習慣用程式語言Python推出的cuNumeric,可加速其擴充函式庫NumPy支援更大規模的矩陣運算。另外cuQuantum則是針對量子運算專用SDK,可供研究人員進行量子科學研究。

在AI應用方面,該公司推出兩個極為重要的AI開發框架,一個是物理機器學習模型開發框架Modulus,可透過AI加速建立高度逼真的物理模型,Nvidia還宣稱,以此產生的模型模仿物理的速度,比模擬軟體快1,000到10萬倍之多。另一個NeMo Megatron深度學習框架,則要用來解決超大語言模型(Large Language Model,LLM)訓練的難題,企業或開發者還可以使用以該框架建立的LLM模型NeMo Megatron 530B訓練出自己的語言模型。該語言模型預設使用多達5,300億個參數,還比OpenAI的GPT-3語言模型高出3倍之多,且支援多GPU、多節點分散式運算架構。

除了訓練用LLM模型,Nvidia新一代Triton推理伺服器,也能支援LLM模型的推論。也因為LLM模型是未來AI用來理解語言、語意、上下文脈絡的重要關鍵,黃仁勳也看好LLM模型的發展,將成為未來主流HPC應用。

此外,在新一代Triton推論伺服器中,現在已經可以處理機器學習和深度學習模型的推論,也可以在Arm架構伺服器中做推論。還有另一個體積更小、運算力更強的Edge AI推論晶片Orin在同一天發布,可以提供每秒200兆次的運算(TOPS),與前一代 Xavier相比提升6倍之多。

在企業AI軟體方面,Nvidia原本就有建立相當完整的生態系,涵蓋雲端、本地、邊緣和嵌入式裝置,現在更進一步與資料中心代管服務商Equnix合作推出LaunchPad服務,提供企業預安裝和整合服務,企業以後可以將這些AI軟體部署到Equnix資料中心內,不一定要放在企業內部,不過目前Equnix亞洲機房只有東京和新加坡兩個。

借助新AI語音引擎,用30分鐘訓練就能產生新合成語音

Nvidia同一天推出互動式對話AI引擎Riva,強調只要30分鐘的語音資料訓練,就能產生語音合成模型建立新的AI語音系統,最多可以支援7種語言,包括中文、英文、日文、西班牙文、德文、法文、俄文。除了語音合成,Riva還具備語音助理功能,能回答提問、歸納和理解說話者意圖,也能提供翻譯、即時字幕顯示功能等。

力推新UCF統一運算框架,搶攻Edge AI產業應用

在這次技術大會上,黃仁勳還進一步揭露出該公司Edge AI布局,主要有3大關鍵技術,統一運算框架(Unified Compute Framework,UCF)、虛擬化身Maxine機器人平臺,以及虛擬世界模擬引擎Omniverse。

Nvidia首度提到UCF框架,它是一個用來開發即時處理Edge AI應用的加速框架,企業能夠利用它建立處理機器人流程的多AI邊緣應用程式,而且利用這套框架開發出來的邊緣AI應用,不只可以部署到嵌入式機器人系統或邊緣裝置上,也可以在企業或雲端資料中心執行。

目前該公司已經有部分Edge AI產品採用UCF框架,例如新推出的醫療儀器設備平臺Clara Holoscan就有使用UCF框架,還有Maxine機器人平臺同樣是採用UCF框架提供虛擬分身開發環境。黃仁勳表示,未來Maxine將可以整合更多AI技術深化應用,包含電腦視覺、神經網路繪圖、動畫模擬、AI語音、對話管理、NLU和推薦等。

另一方面,歷經近一年公測,Nvidia的Omniverse企業版正式上線,還釋出重大更新和推出不少新功能,例如最新發表的Omniverse Avatar虛擬化身模擬平臺,整合電腦視覺、語音AI、自然語言理解等技術,讓企業可以在虛擬世界中打造出更聰明的AI虛擬化身,來帶來各種對話式應用或服務,例如Toy Me就是其中一個應用例子。

在一項Maxine虛擬分身技術展示中,就有使用Omniverse來模擬Kiosk機器人語音助理的臉部表情、手勢、身體動作,同時串聯電腦視覺、互動式對話AI技術Riva等多種AI技術,來提供即時互動式對話。

新發表的Omniverse Replicator模擬框架,則是能產生模擬真實世界所需的物理數據,例如道路表面等,可供自駕車以及機器人在虛擬環境中持續加強訓練。


熱門新聞

Advertisement