2021年11月22日-24日,由騰訊游戲?qū)W堂舉辦的第五屆騰訊游戲開發(fā)者大會(Tencent Game Developers Conference,簡稱TGDC)在線上舉行。本屆大會以“Five by Five”為主題,邀請了海內(nèi)外40多位行業(yè)嘉賓,從主論壇、產(chǎn)品、技術(shù)、藝術(shù)、獨立游戲、市場及游戲社會價值7大專場共同探討游戲產(chǎn)業(yè)趨勢和多元價值,以開發(fā)者視角與需求為出發(fā)點,助力游戲行業(yè)良性發(fā)展,探索游戲的更多可能性。
大家好,我是來自Epic Games中國的首席引擎開發(fā)工程師王禰,主要負責引擎相關(guān)技術(shù)的開發(fā)者支持工作,幫助國內(nèi)的開發(fā)者解決各種使用UE開發(fā)項目時遇到的技術(shù)問題,同時也會參與部分引擎工作的開發(fā)。
今天我主要為大家介紹UE5的新功能。當然,UE5有太多新功能了,我會挑大家最關(guān)心的Nanite和Lumen多講一些。
在開發(fā)UE5的時候,我們的目標是:提高各方面的渲染品質(zhì),讓構(gòu)建的數(shù)字世界更動態(tài)一些,提高整個虛擬世界構(gòu)建和表現(xiàn)的上限;同時我們也希望提高開發(fā)和迭代的效率,提供更多更豐富易用的工具,改善用戶編輯和創(chuàng)造的體驗,降低大家使用的門檻。
相比UE4,UE5做了大量改進,主要是Nanite和Lumen等渲染技術(shù),構(gòu)建整個大世界的工具以及底層對渲染大量對象生成一些Proxy Mesh技術(shù)。
在協(xié)同工作方面,改進包括管理大量資產(chǎn)的性能、編輯器和用戶體驗、次世代的一些動畫技術(shù)Chaos、網(wǎng)絡同步的物理系統(tǒng),以及一些全新模塊、游戲框架、AI集群系統(tǒng)、進一步完善的Niagara系統(tǒng)以及各種音頻模塊,像Meta Sound之類的功能都有非常大的改善。
Nanite功能
首先是我們主打功能之一的Nanite,Nanite是全新的Mesh表示形式,是一種虛擬微表面幾何體,解放了之前美術(shù)同學制作模型時對大量細節(jié)的限制,現(xiàn)在可以直接使用真正用于影視級別的資產(chǎn),幾百萬甚至上億面的模型直接可以導入到引擎中,非常順暢的放很多的實例去高效的渲染。
例如來自照片建模或者Zbrush雕刻的高模,或者CAD的數(shù)據(jù)都可以直接放進來,我們有過測試可能幾萬甚至十幾萬的,這些實例每個都是百萬面以上的都在view內(nèi)能被看到的情況下,用Nanite的方式渲染依然能在2080s這樣的GPU上跑到60fps,分辨率可能是1080P左右。Nanite還在開發(fā)中,還有很多功能支持并不完善,我們在后續(xù)會慢慢改進。
Nanite支持的平臺主要是新一代的主機和PC,相比去年我們放出來的Lumen in the land of Nanite ,這項技術(shù)的品質(zhì)和效率都有不少提升,包括磁盤的編解碼效率和壓縮、支持Lightmap烘焙光照、支持可破碎物體、對光線追蹤場景或者物理碰撞支持自動生成減面高質(zhì)量的替代Proxy mesh。
另外通過這種方式,我們還可以用解析微分法決定像素誤差,使誤差肉眼不可見。最后,我們還高效支持了多光源投影,整個Nanite管線基于GPU driven的管線產(chǎn)生,主要流程我會分以下幾個部分來講。
為了讓大量對象在場景上高效剔除,我們需要把所有場景數(shù)據(jù)都送到GPU上。其實從4.22開始,引擎就慢慢在不影響上層使用的情況下,在底層做出改進了,使渲染器成為retained mode,維護了完整的GPU scene,Nanite在這個基礎上做了大量新的工作。
Nanite中cluster的生成
接下來我們簡單講講Nanite的工作機制。首先在模型導入時,我們會做一些預處理,比如按128面的cluster做切分處理。有了這些cluster以后,我們就可以在距離拉遠拉近時,做到對每個cluster group同時切換,讓肉眼看不到切換lod導致的誤差沒有crack,同時還能對這些不同層級、細節(jié)的cluster做streaming,這其實就是Nanite最關(guān)鍵的部分。
cluster的生成主要分以下幾步:首先,原始的mesh lod0數(shù)據(jù)進來后,我們會做一個graph partition。partition條件是比如說我希望共享的邊界盡可能少,這樣我在lock邊界做減面處理時,減面的質(zhì)量會更高一些。
第二是希望這些面積盡可能均勻、大小一致,這樣在lod計算誤差處理投影到屏幕上時,都是對每個cluster或cluster group一致處理。我們會把其中一組cluster合并成一個cluster group,又一次按照“l(fā)ock的邊界盡可能少、面積盡可能均勻”的條件找出,一組組cluster生成group,對這個group內(nèi)cluster的邊解鎖,等于把這組group看成一個大的cluster,然后對這組group做對半的減面。
減完面后,我們可以得到一個新的cluster誤差,我會對這個減面的group重新做cluster劃分。這時,cluster的數(shù)量在同一個group里其實就已經(jīng)減半,然后我會計算每個新的cluster誤差。大家要注意,這個過程是循環(huán)的,遞歸一直到最終值 ,對每個instance、模型只生成一個cluster為止。這里有一個比較關(guān)鍵的點:我們在減面生成每個cluster時,會通過減面算法(QEM)得到這個cluster的誤差值并存下。
除此之外,我們還會存group的誤差值,這個值其實就是更精細的那一級cluster group里cluster的最大誤差值,和我新一級里產(chǎn)生的每個cluster誤差值取maximum得到的值。這樣我就能保證這個cluster每次合并的group,去減面到上一級的group里的cluster時的誤差值,永遠是從不精細到精細慢慢上升的狀態(tài)。
也就是說,我從最根結(jié)點的cluster慢慢到最細的cluster,里面的error一定是降序排序的。這一點很重要,因為它能保證后續(xù)選擇culling和lod時,恰好是在一個cluster組成的DAG上。因為cluster會合并group,group生成打散以后在下一級里,又會有一個共享的cluster。
有了這個降序排列的誤差,我就能保證這個DAG上有一刀很干凈的cut,使我的邊界一定是跨lod的cluster group的邊界。最后,我們對這個生成的各個lod層級的cluster分別生成bvh,再把所有l(wèi)od的cluster的bvh的root,掛到總的bvh root上。
當然,這里還有很多額外處理,現(xiàn)在沒有講是考慮到做streaming時的一些分頁處理。這個分頁可能會對cluster group造成切割,所以cluster group,還有一些group partition的概念,我們這里不做細化。
另外,對于一些微小物體離得很遠以后的情況,我們減到最后一級cluster,其實它還是有128個面,那如果場景里非常小的東西位于很遠的地方,這又是一個模塊化的構(gòu)成。我們又不能直接把它culling掉,這種情況下,我們會有另外一種Imposter atlas的方式,這里我也不展開講了。
Nanite裁剪流程
最后裁減到它bvh的葉子節(jié)點,其實就是我們剛才說的cluster group,然后再對其中的cluster做裁減。裁減完之后,我們就會有一個特殊的光柵化過程,然后我們就能得到新的Depth Buffer,重新構(gòu)建HZB,再對這個新的HZB做一遍裁減。
前面那次HZB的可見性,我們用了上一幀可見的instance來做,做完之后形成新的HZB,我們再把上一幀不可見的,在這一幀內(nèi)所有剩下的再做一遍,就能保守地保證沒有什么問題。
重新經(jīng)過光柵化后,生成到新的visibility buffer,再從visibility buffer經(jīng)過material pass,最終合入Gbuffer。具體做culling時會有一些問題,比如剛才cluster生成時我們說到過,生成cluster group的bvh結(jié)構(gòu),我們在CPU上不會知道它有多少層。
也就是說,如果我要去做的話,CPU要發(fā)足夠多的dispatch,這時比如小一點的物件,它空的dispatch就會很多,這種情況下GPU的利用率也會很低。
所以我們選擇了一種叫persistent culling的方法,利用一個persistent thread去做culling,也就是只做一次dispatch,開足夠多的線程,用一個簡單的多生產(chǎn)者、多消費者的任務隊列來喂?jié)M這些線程。
這些線程從隊列里執(zhí)行時,每個node會在做封層級別剔除的同時產(chǎn)生新的node,也就是bvh node,Push back回新的。在可見的children的列表里,我們一直處理這個列表,直到任務為空。
這里的處理分為幾種類型:首先在一開始的node里,只有我們開始構(gòu)建的bvh的節(jié)點,直到我一直做剔除,剔除到葉子節(jié)點以后,里面是個cluster group,再進入下一級,就是這個group里面所有的cluster culling。最后cluster并行獨立地判斷,自己是否被culling 掉,這里其實和剛剛lod選擇的條件是一模一樣的。
還記得我剛才說的error的單調(diào)性吧?因為這里的cluster中,所有l(wèi)od都是混合在一起的,所以我們每個cluster在并行處理時,我不知道父級關(guān)系是什么樣的,但我在每個cluster上存了自己的誤差,和我整個group在父一級上的最大誤差,所以這時我就知道,如果我自己的誤差足夠小,但是我Parent的誤差不夠小,我就不應該被culling掉。
同理,跟我共處一個cluster group的這些節(jié)點,如果它在我上一級lod里,也就是比較粗的那一級里,那它的error一定不夠大,所以上面那一級lod所在的整個group都會被拋棄掉,而選中下一個。
但是下一個里面,其實還是可能會有一些誤差太大的——它的誤差如果足夠大,就意味著它在再下一級更精細的地方,肯定屬于另外一個cluster group。所以它又在下一級的cluster group里又有一個邊界,和它下一級的cluster group邊界接起來會沒有接縫,整個cluster的選擇就是這樣并行做的。
同時,對應自己cluster group的parent,剛剛我們說了,肯定會被剔除掉。這樣就能保證我們能分cluster group為邊界,去對接不同lod層級的cluster,并使經(jīng)過culling存活下來的cluster來到特殊的光柵化階段。
Nanite中的光柵化
由于當前圖形硬件假設了pixel shading rate,肯定是高于triangle的,所以普通硬件光柵化處理器在處理非常的微小表面時,光柵化效率會很差,完整并行也只能一個時鐘周期處理4個triangle,因為2×2像素的會有很多quad overdraw,所以我們選擇使用自己用compute shader實現(xiàn)的軟件光柵化,輸出的結(jié)果就是Visibility Buffer。
我這里列出的結(jié)構(gòu)總共是64位的,所以我需要atomic64的支持,利用interlocked maximum的實現(xiàn)來做模擬深度排序。所以我最高的30位存了depth、instanceID、triangleID。因為每個cluster128個面,所以triangleID只要7位,我們現(xiàn)在其實整個opaque的Nanite pass,一個draw就能畫完生成到visibility Buffer,后續(xù)的材質(zhì)pass會根據(jù)數(shù)量,為每種材質(zhì)分配一個draw,輸出到Gbuffer,然后像素大小的三角面就會經(jīng)過我們的軟件光柵化。
我們以cluster為單位來計算,比如我當前這個cluster覆蓋屏幕多大范圍,來估算我接下來這個cluster里是要做軟件光柵化還是硬件光柵化。我們也利用了一些比如浮點數(shù)當定點數(shù)的技巧,加速整個掃描線光柵化的效率。
比如我在subpixel sample的時候是256,我就知道是因為邊長是16。亞像素的修正保證了8位小數(shù)的精度,這時我們分界使用軟光柵的邊界,剛好是16邊長的三角面片的時候,可以保證整數(shù)部分需要4位的精度,在后續(xù)計算中最大誤差,比如乘法縮放導致小數(shù)是8位、整數(shù)是4位,就是4.8。
乘法以后精度縮放到8.16,依然在浮點精度范圍內(nèi),實際的深度測試是通過Visibility buffer高位的30位的深度,利用一些原子化的指令,比如InterlockedMax實現(xiàn)了光柵化。大家感興趣可以去看看Rasterizer.ush里面有Write Pixel去做了,其實我們?yōu)榱瞬⑿械貓?zhí)行軟件光柵化和硬件光柵化,最終硬件光柵化也依然是用這個Write Pixel去寫的。
Nanite中的材質(zhì)處理
有了Visibility buffer后,我們實際的材質(zhì)pass會為每種材質(zhì)繪制一個draw call,這里我們在每個cluster用了32位的材質(zhì)信息去儲存,有兩種編碼方式共享這32位,每個三角面都有自己對應的材質(zhì)索引,支持最多每個對象有64種材質(zhì),所以需要6位去編碼。
普通的編碼方式一共有兩種,一種是fast path直接編碼,這時只要每個cluster用的材質(zhì)不超過三種就可以,比如每一種64個材質(zhì),我需要用6位來表示索引是第幾位,用掉3X6=18位還剩下14位,剛好每7位分別存第一,和第二種材質(zhì)索引的三角面片數(shù)的范圍,因為7位可以存cluster 128個面, 這是最大范圍了。
前幾個面索引用第一種,剩下的范圍用第二種,再多出來的就是第三種。當一個cluster超過3種材質(zhì)時,我們會用一種間接的slow path,高7位本來存第一種材質(zhì),三角面片的范圍的那7位,我們現(xiàn)在padding 0 剩余其中19位存到一個全局的,材質(zhì)范圍表的Buffer Index,還有6位存Buffer Length,Slow path會間接訪問全局的GPU上的材質(zhì)范圍表,每個三角面在表里面順著entry找自己在哪一組范圍內(nèi)。
這個結(jié)構(gòu)里存有兩個8位三角面index開始和結(jié)束,6位(64種)材質(zhì)index,其實這種方式也很快。大家想一下,其實我們大部分材質(zhì)、模型,就算用滿64個材質(zhì),我切成小小的cluster以后,128個面里你切了好多section,超過三種材質(zhì)的可能性其實很低。
這里可以看到不同的繪制對象,它在Material Index表里面其實順序是不一樣的,我們需要重新統(tǒng)一映射材質(zhì)ID,也能幫助合并同樣材質(zhì)的shading計算開銷。
在處理Nanite的mesh pass時,我們會對每一種material ID做一個screen quad的繪制,這個繪制只寫一個“材質(zhì)深度”,我們用24位存“材質(zhì)深度”可表示幾百萬種材質(zhì),肯定是夠了。每一種材質(zhì)有一個材質(zhì)深度平面,我們利用屏幕空間的小Tile做instanced draw,用深度材質(zhì)的深度平面做depth equal的剔除,來對每種材質(zhì)實際輸出的Gbuffer做無效像素的剔除。
那為什么要切tile做instanced draw呢?因為就算用硬件做Early Z,做了rejection,也還是會耗一些時間的。所以如果在vs階段,某個tile里根本沒有的材質(zhì)的話,就能進一步減少開銷,具體可以看ExportGbuffer.usf里的FullScreenVS這里的處理。
Nanite中的串流
處理完渲染部分,我們來看看串流。因為時間關(guān)系,我這里可能要稍微簡化一下:因為資源很大,我們希望占用內(nèi)存是比較固定的,有點類似VT這種概念。但是geometry對比virtual texture有特殊的challenge。
還記得之前l(fā)od選擇的時候我們說過,最終結(jié)果剛好是讓DAG上有一個干凈的Cut,所以如果數(shù)據(jù)還沒進來,這個cut就不對了,我們也不能在cluster culling時加入已有數(shù)據(jù)信息的判斷,只能在runtime去patching這個實際的數(shù)據(jù)指針。
所以我們保留了所有用來culling的層級信息,讓每個instance加載的時候都在GPU里面,只streaming實際用到的geometry的細節(jié)數(shù)據(jù)。這樣做有很多好處——在新的對象被看到的一瞬間,我們最低一級的root那一級的cluster還是有的,我們就不用一級一級請求。
并且我有整個cluster表,所以我可以在一幀中就準確知道,我feedback時實際要用到的那些cluster實際層級的數(shù)據(jù)。整個層級信息本身是比較小的,在內(nèi)存里的占用,相對來說不那么可觀。
回憶之前culling的過程可以知道,我們在streaming粒度最小的時候, 也是在cluster group層級的,所以我們的streaming會按照我剛剛說的cluster group來切配置。因為有些切割的邊界最好是在cluster group的中間,所以我們會有一些partial group的概念,在最后讓GPU發(fā)出請求。
在哪個cluster group里,我就發(fā)這個group所在的那個page。如果我是partial的切到幾個page,我就會同時發(fā)這幾個page的請求。加載完之后,我會重新在GPU上patch,我剛剛整個culling的算法,條件如果變成了是葉子節(jié)點,我剛剛說的誤差滿足條件里還有一個并行條件——是不是葉子節(jié)點。
除了真的lod0的cluster是葉子節(jié)點,還有就是我現(xiàn)在沒有填充patch完、沒有加載進來的時候,內(nèi)存里最高、最精細的那一級是什么?也是葉子節(jié)點,總體概念就是這樣的。
Nanite中的壓縮
實際上,我們在硬盤里利用了通用的壓縮,因為大部分的主機硬件都有LZ77這類通用的壓縮格式,這種壓縮一般都是基于重復字串的index length編碼,把長字符串和利用率高的字符串利用Huffman編碼方式。
按頻度來做優(yōu)化的,我們其實可以重新調(diào)整。比如在我們切成cluster以后,每個cluster的index buffer是高度相似的,我們的vertex 在cluster的局部位移又很小,所以我們可以做大量的position量化,用normal八面體編碼把vertex的所有index排到一起,來幫助重復字符串的編碼和壓縮。
其實我們每個三角形就用一個bit,表示我這個index是不是不連續(xù)下去要重新開始算,并且另外一個bit表示重新開始算的朝向的是減還是加,這樣頂點數(shù)據(jù)跨culster的去重,做過這樣的操作后,我們磁盤上的壓縮率是非常非常高的。當然,我們還在探索進一步壓縮的可能性。
Nanite的未來與其他
由于時間關(guān)系, 借助Nanite其他的一些feature,尤其是Virtual Shadow Map,我們可以高效地通過Nanite去做多個view的渲染,并且?guī)秙hadow的光源——每個都有16k的shadowmap,自動選擇每個texel投到屏幕一個pixel的精度,應該在哪個miplevel里面,并且只渲染屏幕可見像素到shadowmap,效率非常高,具體細節(jié)這里就不詳細講了。
接下來我們看看Nanite未來有什么樣的計劃:盡管我們目前只支持了比如純opaque的剛體幾何類型,對于微小物體,最后我們還是會用Imposter的方式來畫,但是在超過90%的情況下,場景中其實都是全靜態(tài)對象。
所以目前的Nanite,其實已經(jīng)能處理復雜場景的渲染,在大部分情況下都能起到非常大的作用。至于那些不支持的情況,我們依然會走傳統(tǒng)管線,然后整合起來。當然,這遠沒有達到我們的目標,我們希望以后能支持幾乎所有類型的幾何體,讓場景里不再有概念,不再需要去區(qū)分哪些對象是啟用了Nanite的,包括植被、動畫、地形、opaque、mask和半透。
伴隨Nanite的研究,我們也希望達成一些新技術(shù),比如核外光線追蹤,就是做到讓實際ray tracing的數(shù)據(jù),真的是Nanite已經(jīng)加載進來的細節(jié)層級的數(shù)據(jù)。當然,離屏的數(shù)據(jù)可能還是proxy mesh。
另外,因為我們現(xiàn)在已經(jīng)不支持曲面細分了,所以也希望在Nanite的基礎上做微多邊形的曲面細分。
Lumen
UE5的另一大功能Lumen,是全新的全動態(tài)GI和反射系統(tǒng),支持在大型高細節(jié)場景中無限次反彈的漫反射GI,以及間接的高光反射,跨度可以從幾公里到幾厘米,一些CVar的設置甚至可以到5厘米的精度。
美術(shù)和設計師們可以用Lumen創(chuàng)建更加動態(tài)的場景。譬如做實時日夜變化、開關(guān)手電筒,甚至是場景變換。比如炸開天花板后,光從洞里射進來,整個光線和場景變化都能實時反饋。所以Lumen改善了烘焙光照帶來的大量迭代時間損失,也不需要再處理lightmap的uv,讓品質(zhì)和項目迭代效率都有了很大提升。
為了跨不同尺度提供高質(zhì)量GI,Lumen在不同平臺上也適用不同的技術(shù)組合。但是目前Lumen還有很多功能不足正在改善。我們先來簡單了解下Lumen的大框架:為了支持高效追蹤,我們除了支持RTX硬件的ray tracing,其他情況下我們也用Lumen在GPU上維護了完整的簡化場景結(jié)構(gòu),我們稱之為Lumen scene。
其中部分數(shù)據(jù)是離線通過mesh烘焙生成一些輔助的信息,包括mesh SDF和mesh card,這里的card只標記這個mesh經(jīng)過grid切分之后,從哪些位置去拍它的一些朝向,和Bounding Box的一些標記。
利用剛剛這些輔助信息,和Nanite的多view高效光柵化生成Gbuffer,以及后續(xù)需要用到的其他數(shù)據(jù),運行時會通過兩個層面更新LumenScene:一層是CPU上控制新的Instance進來,或者一些合并的streaming的計算;另一層是更新的GPU數(shù)據(jù),以及更新LumenScene注入,直接和間接Diffuse光照到光照緩存里面。
我們會基于當前屏幕空間放一些Radiance Probe,利用比較特殊的手段去做重要度采樣。通過高效的Trace probe得到Probe里面的光照信息,對Probe的光照信息進行編碼,生成Irradiance Cache 做spatial filter。
當然,接著還會有一些fallback到global世界空間,最后再Final Gather回來,和全屏幕的bentnormal合成生成,最終全屏幕的間接光照,再在上面做一些temporal濾波。這就是我們Diffuse整個全屏的光照,最后再跟Direct光照合起來,就得到了最終的渲染結(jié)果。
Lumen中的Tracing
Lumen的整體框架是軟件追蹤,靠Mesh SDF來做快速的Ray Tracing。在硬件允許時,我們會用RTX,這個今天不展開講。Lumen的追蹤是個Hybrid的方案,包括優(yōu)先利用HZB做屏幕空間的Trace,如果失敗的話,我們在近距離用一個全屏做Mesh SDF的Trace,這里因為Mesh SDF的instance做遍歷效率其實還比較低。
因為用bvh在GPU上訪問時,樹形結(jié)構(gòu)的緩存一致性很不好,所以我們只在很近距離1.8米內(nèi)做第一層級的加速結(jié)構(gòu),這時我們利用一個簡單的Froxel去做grid劃分,快速求交所有instance的Bounding Sphere和對應cell相交結(jié)果,并存在對應cell的列表里,這是全屏做一次的。
接下來在tracing時,我每次只需要訪問當前tracing點,比如marching以后所在的位置,所在的cell就能很快算出來,然后直接查詢里面的instance列表,將第二層加速結(jié)構(gòu)實際的,以及查出來列表里instance的SDF,都做一遍marching,取一個minimum值。
對于稍遠一點的,我們會對場景做一個合并生成Global的SDF,它是個clipmap。但因為提高精度以后,數(shù)據(jù)存儲等各方面每翻一倍精度會有8倍增加,我們會有一些稀疏的表達,我之后會簡單講一下。
在都沒有trace到的情況下,我們會循環(huán)Global SDF的clipmap,對每一級clipmap做loop,直到Global SDF。比如二百多米全都沒有trace到,那就是miss。當然,我們在之前的Demo里也用了RSM做最后的fallback,現(xiàn)在這個版本我們還沒有放進去。
在SDF生成時,tracing我們都會做一些保守的處理,保證不會有薄墻被穿透。SDF其實是個volumetric,按voxel間隔來采樣的生成過程,如果我的面很薄,在你的voxel精度以內(nèi),其實我們會有一些保守處理。
Lumen與場景結(jié)構(gòu)
隨之而來的問題是,我們trace到了某個表面之后,SDF里面沒有辦法拿到我們實際需要的數(shù)據(jù),只能幫助快速找到交點位置,這個時候我們能拿到什么?近場MeshSDF時MeshId是我知道的,因為遍歷列表的時候存了;另外我還知道SDF,所以可以靠SDF的gradient算出對應的normal,但是我有ID、normal和位置,要怎樣得到我要的Radiance呢?包括Gbuffer的一些數(shù)據(jù),這時我們是沒有三角面片數(shù)據(jù)來插值計算的,沒有各種材質(zhì)的屬性,所以我們需要一種高效的參數(shù)化方法。
我們使用了一種平鋪的CubeMapTree結(jié)構(gòu):首先在Mesh導入時我們會預先處理,剛剛提到生成一組Card的描述,在runtime的時候,我們對放在地圖里的每個實例,會根據(jù)mesh的Card信息實際利用Nanite高效光柵化,生成對應的Gbuffer。
Atlas在一張大的Atlas里面,其實是幾張里面存了MRT,存了三張——包括albedo,opacity,normal,depth這樣的信息。存的這個Atlas我們叫做Surface Cache,其實就是大家最終看到的LumenScene。當然,LumenScene還會經(jīng)過SDF tracing,然后做tri-planar reprojection,這其實就是我們 tracing的結(jié)果。
我們tracing時tracing到哪個位置,就會找到它對應三個方向的Lumen card,把光柵化完的那些信息tri-planar reproject出來,得到的就是這個點要的信息。包括Gbuffer、Radiance信息。
Radiance信息從哪里來呢?是在生成這個card時,還會做直接的光照注入,然后生成它Irradiance的Atlas,并且這個Atlas中會根據(jù)維護的budget更新對應的Card,從texel出發(fā),利用GlobalSDF去trace上一幀的lighting狀態(tài),也就是上一幀LumenScene的信息。
所以我們用屏幕空間Probe去trace時,trace到的那個Irradiance cache里的東西,就是多次反彈的結(jié)果。這個Atlas里card存的cache,其實都是2的整數(shù)次冪,為了方便我們做mip。因為我們有些階段要用prefilter的mip,利用conetracing快速地做prefiltering結(jié)果的tracing。對于更遠的Ray,我們其實在trace的時候,就已經(jīng)借助的GlobalSDF,超過1.8米時,這個時候我們也沒有對應的MeshID了。
所以類似地,在對應生成GlobalSDF的clipmap時,我們也會用Surface Cache生成一個voxel Lighting Cache,也就是LumenScene更低精度的voxel的表達。這個voxel Scene就是來自Cube Map Tree預處理后,radiance合并生成出來的。
這時我們每一幀都會重新生成voxel Lighting Cache,整個Lumen的結(jié)構(gòu)是持續(xù)存在GPU上的,在CPU上維護對它的增減。我們哪些東西重新Streaming進來了,視角調(diào)整以后哪些card變得可見,為了控制開銷,我會每幀固定更新一定數(shù)量的card,并且根據(jù)對應的Lighting類型,對這個Surface cache做一些裁減。對于那些tracing時不在屏幕中的shadow遮擋,我們都是靠Global SDF Trace來做的。
Final Gather
有了Tracing的手段,又從中獲得了想要的數(shù)據(jù)的信息后,我們就要解決最終的GI問題了。傳統(tǒng)模式中,比如Cards里存的是Surface Cache,已經(jīng)有了多次反彈的照度信息,這里我們已經(jīng)把追蹤到的表面緩存不一致的求解計算分離到Card Capture和Card光照計算部分,就只需要在屏幕空間直接來Trace Ray,Trace這些Surface Cache里的Irradiance就可以了。
傳統(tǒng)做RTX GI時,往往只能支撐1-2spp在Gbuffer發(fā)出BentNormal半球空間均勻分布的光線,如果靠SpatialTemporay,方差引導的這種濾波,在光線相對充足的情況下效果會非常好,但是當光線很不充足,譬如只有一束光從門縫或小窗口照進來時,離遠一點的地方你Trace出來的Ray能采樣到,實際有光源的地方概率太低,導致在濾波前的畫面信息實在太少,最終濾波完的品質(zhì)也是非常差、不能接受的。
我們的方法,是利用遠低于Gbuffer分辨率的Screen Space的Probe,約每16個像素,根據(jù)實際像素插值失敗的情況下,我們在格子里面還會進一步細化放置,放到一個Atlas里,我的每個Probe其實有8×8個Atlas,小的一個八面體投影的就是半球,自己World Space normal的半球,均勻分布我的立體角朝向的那個Tracing的方向,每一幀我還會對這個采樣點做一些jitter,之后再去插值。
我們也會在像素平面,將最后全屏每個像素按照BRDF重要度采樣,找周圍Screen的Probe做跟我方向一致的weight調(diào)整,再去做插值,然后在計算probe的時候,我們利用半球投到八面體的方式,存了8×8的像素全都Atlas到一起,在細化時一直往下放。
所以最壞的情況,是比如每個像素都是一個前景,下一個像素就是一個后景——這其實不太可能,只是極端情況。這種情況我就變成要細化到每個像素,又變成逐像素去做這個tracing的Probe Cache。為了避免這種情況,我們其實是粗暴地限制了整個Atlas的大小,也就是最細化的東西,我填不下就不要了。
這樣的好處是,我按照1/16的精度去做的Screen Probe,其實是1/256的精度,即使8×8我處理的像素數(shù)還是以前的1/4或者1/8,在做Spatial Filter最后每個像素插值時,我只要做Screen Probe3×3的filter,其實就相當于以前48×48的filter大小,而且效率很高。并且在求解間接的環(huán)境光蒙特卡洛積分時,可以靠上一幀這些ScreenProbe里reproject回來的Incoming Radiance的值,作為lighting的importance sampling的引導。
同樣,BRDF也可以這樣做。譬如BRDF值小于0的部分,無論入射光如何都不會貢獻出射,隨便這個方向上lighting在上一幀的incoming radiance。在這個點上有多少,這個朝向有光過來,我貢獻也是0——我不需要它,所以我最終就把這兩個東西乘到一起,作為我新的這一幀probe的importance sampling的方向。
最后,我就會根據(jù)這個方向去tracing,之后radiance會存到跟它對應起來另外一張8×8的圖里,Atlas到一起。對于小而亮的部分離的表面越遠,每幀又有jitter又有方向,引導方向不一樣。有時沒追蹤到,它的噪點就會比較多,并且trace長度越長光線的一致性也不好,所以相反離得遠的光源,相對貢獻得光照變化頻率也比較低。因為我離的很遠以后局部光有一些位移,對我這里的影響是很小的。
所以我們可以用一個世界空間的probe來處理,因為這個時候可以做大量的cache,這里我的世界空間也是一個clipmap,它也是稀疏存儲的。因為只有我Screen Space的Probe Tracing訪問不到的東西,我才會去布置更多的World Space的Probe去做更新處理,這里就不展開講了。
最終,我們需要在全分辨率的情況下做積分,這時有一個辦法,就是根據(jù)全分辨率像素得到BRDF采樣,方法就是我剛才說的,從Screen Probe里面找。比如8×8像素周圍的都去找跟它方向一致的weight去插值,但這樣噪點還是很多,所以我們其實是從它的mip里面去預處理,從filter過的結(jié)果里去找。
這樣還會有一個問題:我自己朝向的平面,比如8×8像素周圍的都去找跟它方向一致的weight去插值,所以最終我們把八面體的radiance轉(zhuǎn)成了三階球諧,這樣全分辨率的時候能非常高效的利用球諧系數(shù)做漫反射積分,這樣的結(jié)果質(zhì)量和效率都很好。
最后的最后我們又做了一次,我對每個像素都做完之后,再做一次temporal的濾波,但是會根據(jù)像素追蹤到的位置的速度和深度來決定我這個像素的變化,是不是快速移動物體區(qū)域投影過來的,來決定我這個temporal filter的強度。
我temporal filter越弱,其實就相當于前面我去采樣的時候積分起來的時候,我采樣周圍3×3 Spatial Filter效果就越強。整體上Lumen的框架就是這樣,我略過了大量細節(jié)和一些特殊處理的部分。譬如半透明物體的GI沒有講到,Spectular我也沒有特殊講,但是像spectular在粗糙度0.3到1的情況下,和這里importance sampling的diffuse其實是一致的。
Lumen的未來
在未來,我們也希望能做進一步改進,比如鏡面反射,Glossy反射我們已經(jīng)能很好處理,但是鏡面反射在不用硬件追蹤的情況下,現(xiàn)在Lumen效果還是不夠的,包括SkeletalMesh的場景表達方式、破碎物體的場景表達方式,以及更好處理非模塊化的整個物體。因為現(xiàn)在模塊化整體captured card或者SDF的各種精度處理,可能還不夠完善。
我們希望提升植被品質(zhì),以及更快速地支持光照變化,因為我們有很多hard limiter的更新,比如card數(shù)量之類的,會導致你過快更新時跟不上。最后,我們還希望能支持更大的世界,譬如可以串流SDF數(shù)據(jù),以及做GPU driven的Surface Cache。關(guān)于Lumen我們今天就先講到這里。
其他功能與Q&A
講完兩大招牌功能,我們快速過一下別的功能:比如最常被大家提到的大世界支持。從UE5開始我們有了更好的工具,比如World Partition就升級成了全新的數(shù)據(jù)組織方式,配合一套streaming系統(tǒng),我們不需要手動處理runtime的streaming,引擎會幫你自動切分出不同的Partition,自動處理加載策略。
而且在這個基礎上,我們又有Data Layer對于不同邏輯的處理,有World Partition Stream Policy根據(jù)layer對不同的Policy的定制,有Level Instance——可以把Level看成Actor、嵌套組成模板、模塊化搭建地圖,并且在Level Instance層級上設置Hlod的參數(shù)。
為了協(xié)同工作,我們還引入了One File Per Actor,大家每次在地圖上編輯或新增時,其實只改到了一個獨立的actor所對應的文件,文件鎖的粒度比較細,就不會去動整個地圖文件,這樣引擎也會自動幫你管理這些散文件的changelist生成。
最后,我們還做了大世界的精度支持,把整個Transform的各種計算都改到了雙精度浮點支持。另外,我們在Mobile上也做了更多支持,比如Turnkey全新的打包工作流程,移動端延遲渲染也進入了beta階段。
除此之外,iOS我們也做了很多改進,在正式版本我們新增了opengles延遲渲染管線的支持,比如mali上的pixel local storage。同時我們也加入了DFShadow支持,以及一些新的shading model:例如和pc統(tǒng)一利用Burley SSS參數(shù)驅(qū)動的移動版本的preintegrated皮膚。
同時我們終于對DXC下的半精度做了支持,而且把所有的Metal Vulkan openGLES都用DXC做了轉(zhuǎn)換。同時我們還加入了point light shadow、CSM cache和帶寬優(yōu)化過的565的RVT,做了全新的 gpu instance culling和更高效的auto-instancing等功能。
對于其他的各種平臺,我們Unreal Turnkey工作流是跨所有平臺開發(fā)打包發(fā)布的流程。目標是一鍵就把項目發(fā)布到任意支持的平臺的全新設備上,自動完成所有工具鏈和SDK的安裝部署,從4.25后面版本開始我們已經(jīng)支持下一代主機了,伴隨接下來《堡壘之夜》在這些平臺上的優(yōu)化和遷移,UE5上我們對這些支持會更完善一些。
在這些主機平臺上我們對體積云、物理場等,包括加載效率 TSR等都做了大量的優(yōu)化。也有大量內(nèi)存優(yōu)化(尤其DX12,buddy allocator改pooling)。rdg insights提供了對RHI層的每幀中間渲染資源的復用的這種profiling編輯器。
編輯器我們改善了用戶體驗,用了比較深色的主題的統(tǒng)一配色,大家可以自己去靈活配置。擴大了視窗的利用率,集成Quixel Bridge能方便的瀏覽bridge庫中的資產(chǎn)并直接拖到場景中。
另外我們也加入了Game Feature plugin,是一個全新的數(shù)據(jù)驅(qū)動的框架,類似之前的游戲框架,現(xiàn)在可以干凈的分離到gamefeature插件里方便的激活和卸載,做Game Features和模塊化的Gameplay,你可以把各種類、數(shù)據(jù)、內(nèi)容以及對應的debug/cheat相關(guān)的內(nèi)容封裝到不同的插件模塊里面,可以針對性的通過component來在特定的Actor上啟用,這樣 gameplay模塊的擴展性、重用性、穩(wěn)定性都能有很好的改善。
MetaSounds也是在EA版本就發(fā)布的, 是讓音頻系統(tǒng)有跟渲染管線類似的可編程性的一套工具。類似audio用的shader,所以可以更靈活的使用和操縱原始的音頻數(shù)據(jù)。MetaSounds用來替換以前比較簡陋的soundcue,可以更高效、更靈活、更可擴展,Quartz 是暴露給bp系統(tǒng)的一套用來精確采樣音頻數(shù)據(jù)和事件的系統(tǒng),可以讓你完善地完成類似吉他英雄這種的需要非常準確的幀時間的采樣音效、同步控制的這樣一套系統(tǒng)。
另外我們還有別的一套系統(tǒng)(Audio Synesthesia),可以幫助你離線也可以實時對音頻做分析,然后把音頻做可視化。比如利用niagara或者材質(zhì)做可視化。
chaos的物理系統(tǒng),在UE5開始我們整個物理系統(tǒng)都會切換到chaos,它的一大目標是能有更多的gameplay的交互接口,跟gameplay系統(tǒng)結(jié)合更緊密,并且支持網(wǎng)絡同步。Early Access版本中我們Rigid body模擬已經(jīng)修了很多bug,減少了碰撞對的生成、預先做了更多剔除、修復了一些查詢巨大三角面時的錯誤結(jié)果、改進了超高速移動物體或很低幀數(shù)下默認啟用CCD時不正常的效果、也改了ragdoll模擬穩(wěn)定性的一些bug。
在正式版本中,對于PBD的性能和穩(wěn)定性做了更多優(yōu)化,做了很好的載具的支持,并且支持網(wǎng)絡同步的物理模擬的框架。然后還有各種特殊的solver,比如布料和流體的模擬也得到了增強和改善。
關(guān)于整套Unreal Insights工具,我們改善了現(xiàn)有的Timing, Loading, Network和Animation 的功能,同時新版本里面還有Memory Insights。通過Memory Insights,我們能按照LLM的方式按類型來看內(nèi)存是怎么分配的,然后我們?nèi)绻覯emory Malloc這樣一個參數(shù)的話,Memory Insights還可以幫助大家看到所有的調(diào)用、堆棧、分類 甚至查Memory Leak。有很多這種好用的工具,剛剛也說到RDG Insights,來看整個渲染的管線資源分配、復用、生命周期各種各樣比較好用的功能。
最后是Meta Human Creator,高質(zhì)量的數(shù)字人創(chuàng)建工具,可以幫助小團隊在幾分鐘或者幾小時內(nèi)就創(chuàng)作出3A品質(zhì)的、帶完整rigging,可以用來做動畫的數(shù)字角色。伴隨UE5的發(fā)布,我們MHC的創(chuàng)建角色在引擎里面會有更多更好的表現(xiàn)。這樣品質(zhì)的數(shù)字角色本來只在3A作品里能看到,現(xiàn)在每個人都能制作,并且通過bridge直接在content browser拓出來,在引擎里面使用。
Q & A
UE5.0正式版會在什么時候發(fā)布?
王禰:目前預計是明年上半年,可能在4月份左右發(fā)布。
UE5.0之后還會支持曲面細分嗎?
王禰:由于不少硬件平臺曲面細分效率的問題,我們打算徹底去掉。未來我們會嘗試用Nanite去做,但是目前還沒有做到。所以現(xiàn)在的workaround如果不做變形,那就只能靠Nanitemesh或者靠Virtual Heightfield Mesh來處理。
版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻,該文觀點僅代表作者本人。本站僅提供信息存儲空間服務,不擁有所有權(quán),不承擔相關(guān)法律責任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請發(fā)送郵件至 舉報,一經(jīng)查實,本站將立刻刪除。