2021年11月22日-24日,由騰訊游戲?qū)W堂舉辦的第五屆騰訊游戲開發(fā)者大會(Tencent Game Developers Conference,簡稱TGDC)在線上舉行。本屆大會以“Five by Five”為主題,邀請了海內(nèi)外40多位行業(yè)嘉賓,從主論壇、產(chǎn)品、技術(shù)、藝術(shù)、獨立游戲、市場及游戲社會價值7大專場共同探討游戲產(chǎn)業(yè)趨勢和多元價值,以開發(fā)者視角與需求為出發(fā)點,助力游戲行業(yè)良性發(fā)展,探索游戲的更多可能性。
大家好,我是來自Epic Games中國的首席引擎開發(fā)工程師王禰,主要負(fù)責(zé)引擎相關(guān)技術(shù)的開發(fā)者支持工作,幫助國內(nèi)的開發(fā)者解決各種使用UE開發(fā)項目時遇到的技術(shù)問題,同時也會參與部分引擎工作的開發(fā)。
今天我主要為大家介紹UE5的新功能。當(dāng)然,UE5有太多新功能了,我會挑大家最關(guān)心的Nanite和Lumen多講一些。
在開發(fā)UE5的時候,我們的目標(biāo)是:提高各方面的渲染品質(zhì),讓構(gòu)建的數(shù)字世界更動態(tài)一些,提高整個虛擬世界構(gòu)建和表現(xiàn)的上限;同時我們也希望提高開發(fā)和迭代的效率,提供更多更豐富易用的工具,改善用戶編輯和創(chuàng)造的體驗,降低大家使用的門檻。
相比UE4,UE5做了大量改進(jìn),主要是Nanite和Lumen等渲染技術(shù),構(gòu)建整個大世界的工具以及底層對渲染大量對象生成一些Proxy Mesh技術(shù)。
在協(xié)同工作方面,改進(jìn)包括管理大量資產(chǎn)的性能、編輯器和用戶體驗、次世代的一些動畫技術(shù)Chaos、網(wǎng)絡(luò)同步的物理系統(tǒng),以及一些全新模塊、游戲框架、AI集群系統(tǒng)、進(jìn)一步完善的Niagara系統(tǒng)以及各種音頻模塊,像Meta Sound之類的功能都有非常大的改善。
Nanite功能
首先是我們主打功能之一的Nanite,Nanite是全新的Mesh表示形式,是一種虛擬微表面幾何體,解放了之前美術(shù)同學(xué)制作模型時對大量細(xì)節(jié)的限制,現(xiàn)在可以直接使用真正用于影視級別的資產(chǎn),幾百萬甚至上億面的模型直接可以導(dǎo)入到引擎中,非常順暢的放很多的實例去高效的渲染。
例如來自照片建?;蛘遉brush雕刻的高模,或者CAD的數(shù)據(jù)都可以直接放進(jìn)來,我們有過測試可能幾萬甚至十幾萬的,這些實例每個都是百萬面以上的都在view內(nèi)能被看到的情況下,用Nanite的方式渲染依然能在2080s這樣的GPU上跑到60fps,分辨率可能是1080P左右。Nanite還在開發(fā)中,還有很多功能支持并不完善,我們在后續(xù)會慢慢改進(jìn)。
Nanite支持的平臺主要是新一代的主機和PC,相比去年我們放出來的Lumen in the land of Nanite ,這項技術(shù)的品質(zhì)和效率都有不少提升,包括磁盤的編解碼效率和壓縮、支持Lightmap烘焙光照、支持可破碎物體、對光線追蹤場景或者物理碰撞支持自動生成減面高質(zhì)量的替代Proxy mesh。
另外通過這種方式,我們還可以用解析微分法決定像素誤差,使誤差肉眼不可見。最后,我們還高效支持了多光源投影,整個Nanite管線基于GPU driven的管線產(chǎn)生,主要流程我會分以下幾個部分來講。
為了讓大量對象在場景上高效剔除,我們需要把所有場景數(shù)據(jù)都送到GPU上。其實從4.22開始,引擎就慢慢在不影響上層使用的情況下,在底層做出改進(jìn)了,使渲染器成為retained mode,維護(hù)了完整的GPU scene,Nanite在這個基礎(chǔ)上做了大量新的工作。
Nanite中cluster的生成
接下來我們簡單講講Nanite的工作機制。首先在模型導(dǎo)入時,我們會做一些預(yù)處理,比如按128面的cluster做切分處理。有了這些cluster以后,我們就可以在距離拉遠(yuǎn)拉近時,做到對每個cluster group同時切換,讓肉眼看不到切換lod導(dǎo)致的誤差沒有crack,同時還能對這些不同層級、細(xì)節(jié)的cluster做streaming,這其實就是Nanite最關(guān)鍵的部分。
cluster的生成主要分以下幾步:首先,原始的mesh lod0數(shù)據(jù)進(jìn)來后,我們會做一個graph partition。partition條件是比如說我希望共享的邊界盡可能少,這樣我在lock邊界做減面處理時,減面的質(zhì)量會更高一些。
第二是希望這些面積盡可能均勻、大小一致,這樣在lod計算誤差處理投影到屏幕上時,都是對每個cluster或cluster group一致處理。我們會把其中一組cluster合并成一個cluster group,又一次按照“l(fā)ock的邊界盡可能少、面積盡可能均勻”的條件找出,一組組cluster生成group,對這個group內(nèi)cluster的邊解鎖,等于把這組group看成一個大的cluster,然后對這組group做對半的減面。
減完面后,我們可以得到一個新的cluster誤差,我會對這個減面的group重新做cluster劃分。這時,cluster的數(shù)量在同一個group里其實就已經(jīng)減半,然后我會計算每個新的cluster誤差。大家要注意,這個過程是循環(huán)的,遞歸一直到最終值 ,對每個instance、模型只生成一個cluster為止。這里有一個比較關(guān)鍵的點:我們在減面生成每個cluster時,會通過減面算法(QEM)得到這個cluster的誤差值并存下。
除此之外,我們還會存group的誤差值,這個值其實就是更精細(xì)的那一級cluster group里cluster的最大誤差值,和我新一級里產(chǎn)生的每個cluster誤差值取maximum得到的值。這樣我就能保證這個cluster每次合并的group,去減面到上一級的group里的cluster時的誤差值,永遠(yuǎn)是從不精細(xì)到精細(xì)慢慢上升的狀態(tài)。
也就是說,我從最根結(jié)點的cluster慢慢到最細(xì)的cluster,里面的error一定是降序排序的。這一點很重要,因為它能保證后續(xù)選擇culling和lod時,恰好是在一個cluster組成的DAG上。因為cluster會合并group,group生成打散以后在下一級里,又會有一個共享的cluster。
有了這個降序排列的誤差,我就能保證這個DAG上有一刀很干凈的cut,使我的邊界一定是跨lod的cluster group的邊界。最后,我們對這個生成的各個lod層級的cluster分別生成bvh,再把所有l(wèi)od的cluster的bvh的root,掛到總的bvh root上。
當(dāng)然,這里還有很多額外處理,現(xiàn)在沒有講是考慮到做streaming時的一些分頁處理。這個分頁可能會對cluster group造成切割,所以cluster group,還有一些group partition的概念,我們這里不做細(xì)化。
另外,對于一些微小物體離得很遠(yuǎn)以后的情況,我們減到最后一級cluster,其實它還是有128個面,那如果場景里非常小的東西位于很遠(yuǎn)的地方,這又是一個模塊化的構(gòu)成。我們又不能直接把它culling掉,這種情況下,我們會有另外一種Imposter atlas的方式,這里我也不展開講了。
Nanite裁剪流程
最后裁減到它bvh的葉子節(jié)點,其實就是我們剛才說的cluster group,然后再對其中的cluster做裁減。裁減完之后,我們就會有一個特殊的光柵化過程,然后我們就能得到新的Depth Buffer,重新構(gòu)建HZB,再對這個新的HZB做一遍裁減。
前面那次HZB的可見性,我們用了上一幀可見的instance來做,做完之后形成新的HZB,我們再把上一幀不可見的,在這一幀內(nèi)所有剩下的再做一遍,就能保守地保證沒有什么問題。
重新經(jīng)過光柵化后,生成到新的visibility buffer,再從visibility buffer經(jīng)過material pass,最終合入Gbuffer。具體做culling時會有一些問題,比如剛才cluster生成時我們說到過,生成cluster group的bvh結(jié)構(gòu),我們在CPU上不會知道它有多少層。
也就是說,如果我要去做的話,CPU要發(fā)足夠多的dispatch,這時比如小一點的物件,它空的dispatch就會很多,這種情況下GPU的利用率也會很低。
所以我們選擇了一種叫persistent culling的方法,利用一個persistent thread去做culling,也就是只做一次dispatch,開足夠多的線程,用一個簡單的多生產(chǎn)者、多消費者的任務(wù)隊列來喂?jié)M這些線程。
這些線程從隊列里執(zhí)行時,每個node會在做封層級別剔除的同時產(chǎn)生新的node,也就是bvh node,Push back回新的。在可見的children的列表里,我們一直處理這個列表,直到任務(wù)為空。
這里的處理分為幾種類型:首先在一開始的node里,只有我們開始構(gòu)建的bvh的節(jié)點,直到我一直做剔除,剔除到葉子節(jié)點以后,里面是個cluster group,再進(jìn)入下一級,就是這個group里面所有的cluster culling。最后cluster并行獨立地判斷,自己是否被culling 掉,這里其實和剛剛lod選擇的條件是一模一樣的。
還記得我剛才說的error的單調(diào)性吧?因為這里的cluster中,所有l(wèi)od都是混合在一起的,所以我們每個cluster在并行處理時,我不知道父級關(guān)系是什么樣的,但我在每個cluster上存了自己的誤差,和我整個group在父一級上的最大誤差,所以這時我就知道,如果我自己的誤差足夠小,但是我Parent的誤差不夠小,我就不應(yīng)該被culling掉。
同理,跟我共處一個cluster group的這些節(jié)點,如果它在我上一級lod里,也就是比較粗的那一級里,那它的error一定不夠大,所以上面那一級lod所在的整個group都會被拋棄掉,而選中下一個。
但是下一個里面,其實還是可能會有一些誤差太大的——它的誤差如果足夠大,就意味著它在再下一級更精細(xì)的地方,肯定屬于另外一個cluster group。所以它又在下一級的cluster group里又有一個邊界,和它下一級的cluster group邊界接起來會沒有接縫,整個cluster的選擇就是這樣并行做的。
同時,對應(yīng)自己cluster group的parent,剛剛我們說了,肯定會被剔除掉。這樣就能保證我們能分cluster group為邊界,去對接不同lod層級的cluster,并使經(jīng)過culling存活下來的cluster來到特殊的光柵化階段。
Nanite中的光柵化
由于當(dāng)前圖形硬件假設(shè)了pixel shading rate,肯定是高于triangle的,所以普通硬件光柵化處理器在處理非常的微小表面時,光柵化效率會很差,完整并行也只能一個時鐘周期處理4個triangle,因為2×2像素的會有很多quad overdraw,所以我們選擇使用自己用compute shader實現(xiàn)的軟件光柵化,輸出的結(jié)果就是Visibility Buffer。
我這里列出的結(jié)構(gòu)總共是64位的,所以我需要atomic64的支持,利用interlocked maximum的實現(xiàn)來做模擬深度排序。所以我最高的30位存了depth、instanceID、triangleID。因為每個cluster128個面,所以triangleID只要7位,我們現(xiàn)在其實整個opaque的Nanite pass,一個draw就能畫完生成到visibility Buffer,后續(xù)的材質(zhì)pass會根據(jù)數(shù)量,為每種材質(zhì)分配一個draw,輸出到Gbuffer,然后像素大小的三角面就會經(jīng)過我們的軟件光柵化。
我們以cluster為單位來計算,比如我當(dāng)前這個cluster覆蓋屏幕多大范圍,來估算我接下來這個cluster里是要做軟件光柵化還是硬件光柵化。我們也利用了一些比如浮點數(shù)當(dāng)定點數(shù)的技巧,加速整個掃描線光柵化的效率。
比如我在subpixel sample的時候是256,我就知道是因為邊長是16。亞像素的修正保證了8位小數(shù)的精度,這時我們分界使用軟光柵的邊界,剛好是16邊長的三角面片的時候,可以保證整數(shù)部分需要4位的精度,在后續(xù)計算中最大誤差,比如乘法縮放導(dǎo)致小數(shù)是8位、整數(shù)是4位,就是4.8。
乘法以后精度縮放到8.16,依然在浮點精度范圍內(nèi),實際的深度測試是通過Visibility buffer高位的30位的深度,利用一些原子化的指令,比如InterlockedMax實現(xiàn)了光柵化。大家感興趣可以去看看Rasterizer.ush里面有Write Pixel去做了,其實我們?yōu)榱瞬⑿械貓?zhí)行軟件光柵化和硬件光柵化,最終硬件光柵化也依然是用這個Write Pixel去寫的。
Nanite中的材質(zhì)處理
有了Visibility buffer后,我們實際的材質(zhì)pass會為每種材質(zhì)繪制一個draw call,這里我們在每個cluster用了32位的材質(zhì)信息去儲存,有兩種編碼方式共享這32位,每個三角面都有自己對應(yīng)的材質(zhì)索引,支持最多每個對象有64種材質(zhì),所以需要6位去編碼。
普通的編碼方式一共有兩種,一種是fast path直接編碼,這時只要每個cluster用的材質(zhì)不超過三種就可以,比如每一種64個材質(zhì),我需要用6位來表示索引是第幾位,用掉3X6=18位還剩下14位,剛好每7位分別存第一,和第二種材質(zhì)索引的三角面片數(shù)的范圍,因為7位可以存cluster 128個面, 這是最大范圍了。
前幾個面索引用第一種,剩下的范圍用第二種,再多出來的就是第三種。當(dāng)一個cluster超過3種材質(zhì)時,我們會用一種間接的slow path,高7位本來存第一種材質(zhì),三角面片的范圍的那7位,我們現(xiàn)在padding 0 剩余其中19位存到一個全局的,材質(zhì)范圍表的Buffer Index,還有6位存Buffer Length,Slow path會間接訪問全局的GPU上的材質(zhì)范圍表,每個三角面在表里面順著entry找自己在哪一組范圍內(nèi)。
這個結(jié)構(gòu)里存有兩個8位三角面index開始和結(jié)束,6位(64種)材質(zhì)index,其實這種方式也很快。大家想一下,其實我們大部分材質(zhì)、模型,就算用滿64個材質(zhì),我切成小小的cluster以后,128個面里你切了好多section,超過三種材質(zhì)的可能性其實很低。
這里可以看到不同的繪制對象,它在Material Index表里面其實順序是不一樣的,我們需要重新統(tǒng)一映射材質(zhì)ID,也能幫助合并同樣材質(zhì)的shading計算開銷。
在處理Nanite的mesh pass時,我們會對每一種material ID做一個screen quad的繪制,這個繪制只寫一個“材質(zhì)深度”,我們用24位存“材質(zhì)深度”可表示幾百萬種材質(zhì),肯定是夠了。每一種材質(zhì)有一個材質(zhì)深度平面,我們利用屏幕空間的小Tile做instanced draw,用深度材質(zhì)的深度平面做depth equal的剔除,來對每種材質(zhì)實際輸出的Gbuffer做無效像素的剔除。
那為什么要切tile做instanced draw呢?因為就算用硬件做Early Z,做了rejection,也還是會耗一些時間的。所以如果在vs階段,某個tile里根本沒有的材質(zhì)的話,就能進(jìn)一步減少開銷,具體可以看ExportGbuffer.usf里的FullScreenVS這里的處理。
Nanite中的串流
處理完渲染部分,我們來看看串流。因為時間關(guān)系,我這里可能要稍微簡化一下:因為資源很大,我們希望占用內(nèi)存是比較固定的,有點類似VT這種概念。但是geometry對比virtual texture有特殊的challenge。
還記得之前l(fā)od選擇的時候我們說過,最終結(jié)果剛好是讓DAG上有一個干凈的Cut,所以如果數(shù)據(jù)還沒進(jìn)來,這個cut就不對了,我們也不能在cluster culling時加入已有數(shù)據(jù)信息的判斷,只能在runtime去patching這個實際的數(shù)據(jù)指針。
所以我們保留了所有用來culling的層級信息,讓每個instance加載的時候都在GPU里面,只streaming實際用到的geometry的細(xì)節(jié)數(shù)據(jù)。這樣做有很多好處——在新的對象被看到的一瞬間,我們最低一級的root那一級的cluster還是有的,我們就不用一級一級請求。
并且我有整個cluster表,所以我可以在一幀中就準(zhǔn)確知道,我feedback時實際要用到的那些cluster實際層級的數(shù)據(jù)。整個層級信息本身是比較小的,在內(nèi)存里的占用,相對來說不那么可觀。
回憶之前culling的過程可以知道,我們在streaming粒度最小的時候, 也是在cluster group層級的,所以我們的streaming會按照我剛剛說的cluster group來切配置。因為有些切割的邊界最好是在cluster group的中間,所以我們會有一些partial group的概念,在最后讓GPU發(fā)出請求。
在哪個cluster group里,我就發(fā)這個group所在的那個page。如果我是partial的切到幾個page,我就會同時發(fā)這幾個page的請求。加載完之后,我會重新在GPU上patch,我剛剛整個culling的算法,條件如果變成了是葉子節(jié)點,我剛剛說的誤差滿足條件里還有一個并行條件——是不是葉子節(jié)點。
除了真的lod0的cluster是葉子節(jié)點,還有就是我現(xiàn)在沒有填充patch完、沒有加載進(jìn)來的時候,內(nèi)存里最高、最精細(xì)的那一級是什么?也是葉子節(jié)點,總體概念就是這樣的。
Nanite中的壓縮
實際上,我們在硬盤里利用了通用的壓縮,因為大部分的主機硬件都有LZ77這類通用的壓縮格式,這種壓縮一般都是基于重復(fù)字串的index length編碼,把長字符串和利用率高的字符串利用Huffman編碼方式。
按頻度來做優(yōu)化的,我們其實可以重新調(diào)整。比如在我們切成cluster以后,每個cluster的index buffer是高度相似的,我們的vertex 在cluster的局部位移又很小,所以我們可以做大量的position量化,用normal八面體編碼把vertex的所有index排到一起,來幫助重復(fù)字符串的編碼和壓縮。
其實我們每個三角形就用一個bit,表示我這個index是不是不連續(xù)下去要重新開始算,并且另外一個bit表示重新開始算的朝向的是減還是加,這樣頂點數(shù)據(jù)跨culster的去重,做過這樣的操作后,我們磁盤上的壓縮率是非常非常高的。當(dāng)然,我們還在探索進(jìn)一步壓縮的可能性。
Nanite的未來與其他
由于時間關(guān)系, 借助Nanite其他的一些feature,尤其是Virtual Shadow Map,我們可以高效地通過Nanite去做多個view的渲染,并且?guī)秙hadow的光源——每個都有16k的shadowmap,自動選擇每個texel投到屏幕一個pixel的精度,應(yīng)該在哪個miplevel里面,并且只渲染屏幕可見像素到shadowmap,效率非常高,具體細(xì)節(jié)這里就不詳細(xì)講了。
接下來我們看看Nanite未來有什么樣的計劃:盡管我們目前只支持了比如純opaque的剛體幾何類型,對于微小物體,最后我們還是會用Imposter的方式來畫,但是在超過90%的情況下,場景中其實都是全靜態(tài)對象。
所以目前的Nanite,其實已經(jīng)能處理復(fù)雜場景的渲染,在大部分情況下都能起到非常大的作用。至于那些不支持的情況,我們依然會走傳統(tǒng)管線,然后整合起來。當(dāng)然,這遠(yuǎn)沒有達(dá)到我們的目標(biāo),我們希望以后能支持幾乎所有類型的幾何體,讓場景里不再有概念,不再需要去區(qū)分哪些對象是啟用了Nanite的,包括植被、動畫、地形、opaque、mask和半透。
伴隨Nanite的研究,我們也希望達(dá)成一些新技術(shù),比如核外光線追蹤,就是做到讓實際ray tracing的數(shù)據(jù),真的是Nanite已經(jīng)加載進(jìn)來的細(xì)節(jié)層級的數(shù)據(jù)。當(dāng)然,離屏的數(shù)據(jù)可能還是proxy mesh。
另外,因為我們現(xiàn)在已經(jīng)不支持曲面細(xì)分了,所以也希望在Nanite的基礎(chǔ)上做微多邊形的曲面細(xì)分。
Lumen
UE5的另一大功能Lumen,是全新的全動態(tài)GI和反射系統(tǒng),支持在大型高細(xì)節(jié)場景中無限次反彈的漫反射GI,以及間接的高光反射,跨度可以從幾公里到幾厘米,一些CVar的設(shè)置甚至可以到5厘米的精度。
美術(shù)和設(shè)計師們可以用Lumen創(chuàng)建更加動態(tài)的場景。譬如做實時日夜變化、開關(guān)手電筒,甚至是場景變換。比如炸開天花板后,光從洞里射進(jìn)來,整個光線和場景變化都能實時反饋。所以Lumen改善了烘焙光照帶來的大量迭代時間損失,也不需要再處理lightmap的uv,讓品質(zhì)和項目迭代效率都有了很大提升。
為了跨不同尺度提供高質(zhì)量GI,Lumen在不同平臺上也適用不同的技術(shù)組合。但是目前Lumen還有很多功能不足正在改善。我們先來簡單了解下Lumen的大框架:為了支持高效追蹤,我們除了支持RTX硬件的ray tracing,其他情況下我們也用Lumen在GPU上維護(hù)了完整的簡化場景結(jié)構(gòu),我們稱之為Lumen scene。
其中部分?jǐn)?shù)據(jù)是離線通過mesh烘焙生成一些輔助的信息,包括mesh SDF和mesh card,這里的card只標(biāo)記這個mesh經(jīng)過grid切分之后,從哪些位置去拍它的一些朝向,和Bounding Box的一些標(biāo)記。
利用剛剛這些輔助信息,和Nanite的多view高效光柵化生成Gbuffer,以及后續(xù)需要用到的其他數(shù)據(jù),運行時會通過兩個層面更新LumenScene:一層是CPU上控制新的Instance進(jìn)來,或者一些合并的streaming的計算;另一層是更新的GPU數(shù)據(jù),以及更新LumenScene注入,直接和間接Diffuse光照到光照緩存里面。
我們會基于當(dāng)前屏幕空間放一些Radiance Probe,利用比較特殊的手段去做重要度采樣。通過高效的Trace probe得到Probe里面的光照信息,對Probe的光照信息進(jìn)行編碼,生成Irradiance Cache 做spatial filter。
當(dāng)然,接著還會有一些fallback到global世界空間,最后再Final Gather回來,和全屏幕的bentnormal合成生成,最終全屏幕的間接光照,再在上面做一些temporal濾波。這就是我們Diffuse整個全屏的光照,最后再跟Direct光照合起來,就得到了最終的渲染結(jié)果。
Lumen中的Tracing
Lumen的整體框架是軟件追蹤,靠Mesh SDF來做快速的Ray Tracing。在硬件允許時,我們會用RTX,這個今天不展開講。Lumen的追蹤是個Hybrid的方案,包括優(yōu)先利用HZB做屏幕空間的Trace,如果失敗的話,我們在近距離用一個全屏做Mesh SDF的Trace,這里因為Mesh SDF的instance做遍歷效率其實還比較低。
因為用bvh在GPU上訪問時,樹形結(jié)構(gòu)的緩存一致性很不好,所以我們只在很近距離1.8米內(nèi)做第一層級的加速結(jié)構(gòu),這時我們利用一個簡單的Froxel去做grid劃分,快速求交所有instance的Bounding Sphere和對應(yīng)cell相交結(jié)果,并存在對應(yīng)cell的列表里,這是全屏做一次的。
接下來在tracing時,我每次只需要訪問當(dāng)前tracing點,比如marching以后所在的位置,所在的cell就能很快算出來,然后直接查詢里面的instance列表,將第二層加速結(jié)構(gòu)實際的,以及查出來列表里instance的SDF,都做一遍marching,取一個minimum值。
對于稍遠(yuǎn)一點的,我們會對場景做一個合并生成Global的SDF,它是個clipmap。但因為提高精度以后,數(shù)據(jù)存儲等各方面每翻一倍精度會有8倍增加,我們會有一些稀疏的表達(dá),我之后會簡單講一下。
在都沒有trace到的情況下,我們會循環(huán)Global SDF的clipmap,對每一級clipmap做loop,直到Global SDF。比如二百多米全都沒有trace到,那就是miss。當(dāng)然,我們在之前的Demo里也用了RSM做最后的fallback,現(xiàn)在這個版本我們還沒有放進(jìn)去。
在SDF生成時,tracing我們都會做一些保守的處理,保證不會有薄墻被穿透。SDF其實是個volumetric,按voxel間隔來采樣的生成過程,如果我的面很薄,在你的voxel精度以內(nèi),其實我們會有一些保守處理。
Lumen與場景結(jié)構(gòu)
隨之而來的問題是,我們trace到了某個表面之后,SDF里面沒有辦法拿到我們實際需要的數(shù)據(jù),只能幫助快速找到交點位置,這個時候我們能拿到什么?近場MeshSDF時MeshId是我知道的,因為遍歷列表的時候存了;另外我還知道SDF,所以可以靠SDF的gradient算出對應(yīng)的normal,但是我有ID、normal和位置,要怎樣得到我要的Radiance呢?包括Gbuffer的一些數(shù)據(jù),這時我們是沒有三角面片數(shù)據(jù)來插值計算的,沒有各種材質(zhì)的屬性,所以我們需要一種高效的參數(shù)化方法。
我們使用了一種平鋪的CubeMapTree結(jié)構(gòu):首先在Mesh導(dǎo)入時我們會預(yù)先處理,剛剛提到生成一組Card的描述,在runtime的時候,我們對放在地圖里的每個實例,會根據(jù)mesh的Card信息實際利用Nanite高效光柵化,生成對應(yīng)的Gbuffer。
Atlas在一張大的Atlas里面,其實是幾張里面存了MRT,存了三張——包括albedo,opacity,normal,depth這樣的信息。存的這個Atlas我們叫做Surface Cache,其實就是大家最終看到的LumenScene。當(dāng)然,LumenScene還會經(jīng)過SDF tracing,然后做tri-planar reprojection,這其實就是我們 tracing的結(jié)果。
我們tracing時tracing到哪個位置,就會找到它對應(yīng)三個方向的Lumen card,把光柵化完的那些信息tri-planar reproject出來,得到的就是這個點要的信息。包括Gbuffer、Radiance信息。
Radiance信息從哪里來呢?是在生成這個card時,還會做直接的光照注入,然后生成它Irradiance的Atlas,并且這個Atlas中會根據(jù)維護(hù)的budget更新對應(yīng)的Card,從texel出發(fā),利用GlobalSDF去trace上一幀的lighting狀態(tài),也就是上一幀LumenScene的信息。
所以我們用屏幕空間Probe去trace時,trace到的那個Irradiance cache里的東西,就是多次反彈的結(jié)果。這個Atlas里card存的cache,其實都是2的整數(shù)次冪,為了方便我們做mip。因為我們有些階段要用prefilter的mip,利用conetracing快速地做prefiltering結(jié)果的tracing。對于更遠(yuǎn)的Ray,我們其實在trace的時候,就已經(jīng)借助的GlobalSDF,超過1.8米時,這個時候我們也沒有對應(yīng)的MeshID了。
所以類似地,在對應(yīng)生成GlobalSDF的clipmap時,我們也會用Surface Cache生成一個voxel Lighting Cache,也就是LumenScene更低精度的voxel的表達(dá)。這個voxel Scene就是來自Cube Map Tree預(yù)處理后,radiance合并生成出來的。
這時我們每一幀都會重新生成voxel Lighting Cache,整個Lumen的結(jié)構(gòu)是持續(xù)存在GPU上的,在CPU上維護(hù)對它的增減。我們哪些東西重新Streaming進(jìn)來了,視角調(diào)整以后哪些card變得可見,為了控制開銷,我會每幀固定更新一定數(shù)量的card,并且根據(jù)對應(yīng)的Lighting類型,對這個Surface cache做一些裁減。對于那些tracing時不在屏幕中的shadow遮擋,我們都是靠Global SDF Trace來做的。
Final Gather
有了Tracing的手段,又從中獲得了想要的數(shù)據(jù)的信息后,我們就要解決最終的GI問題了。傳統(tǒng)模式中,比如Cards里存的是Surface Cache,已經(jīng)有了多次反彈的照度信息,這里我們已經(jīng)把追蹤到的表面緩存不一致的求解計算分離到Card Capture和Card光照計算部分,就只需要在屏幕空間直接來Trace Ray,Trace這些Surface Cache里的Irradiance就可以了。
傳統(tǒng)做RTX GI時,往往只能支撐1-2spp在Gbuffer發(fā)出BentNormal半球空間均勻分布的光線,如果靠SpatialTemporay,方差引導(dǎo)的這種濾波,在光線相對充足的情況下效果會非常好,但是當(dāng)光線很不充足,譬如只有一束光從門縫或小窗口照進(jìn)來時,離遠(yuǎn)一點的地方你Trace出來的Ray能采樣到,實際有光源的地方概率太低,導(dǎo)致在濾波前的畫面信息實在太少,最終濾波完的品質(zhì)也是非常差、不能接受的。
我們的方法,是利用遠(yuǎn)低于Gbuffer分辨率的Screen Space的Probe,約每16個像素,根據(jù)實際像素插值失敗的情況下,我們在格子里面還會進(jìn)一步細(xì)化放置,放到一個Atlas里,我的每個Probe其實有8×8個Atlas,小的一個八面體投影的就是半球,自己World Space normal的半球,均勻分布我的立體角朝向的那個Tracing的方向,每一幀我還會對這個采樣點做一些jitter,之后再去插值。
我們也會在像素平面,將最后全屏每個像素按照BRDF重要度采樣,找周圍Screen的Probe做跟我方向一致的weight調(diào)整,再去做插值,然后在計算probe的時候,我們利用半球投到八面體的方式,存了8×8的像素全都Atlas到一起,在細(xì)化時一直往下放。
所以最壞的情況,是比如每個像素都是一個前景,下一個像素就是一個后景——這其實不太可能,只是極端情況。這種情況我就變成要細(xì)化到每個像素,又變成逐像素去做這個tracing的Probe Cache。為了避免這種情況,我們其實是粗暴地限制了整個Atlas的大小,也就是最細(xì)化的東西,我填不下就不要了。
這樣的好處是,我按照1/16的精度去做的Screen Probe,其實是1/256的精度,即使8×8我處理的像素數(shù)還是以前的1/4或者1/8,在做Spatial Filter最后每個像素插值時,我只要做Screen Probe3×3的filter,其實就相當(dāng)于以前48×48的filter大小,而且效率很高。并且在求解間接的環(huán)境光蒙特卡洛積分時,可以靠上一幀這些ScreenProbe里reproject回來的Incoming Radiance的值,作為lighting的importance sampling的引導(dǎo)。
同樣,BRDF也可以這樣做。譬如BRDF值小于0的部分,無論入射光如何都不會貢獻(xiàn)出射,隨便這個方向上lighting在上一幀的incoming radiance。在這個點上有多少,這個朝向有光過來,我貢獻(xiàn)也是0——我不需要它,所以我最終就把這兩個東西乘到一起,作為我新的這一幀probe的importance sampling的方向。
最后,我就會根據(jù)這個方向去tracing,之后radiance會存到跟它對應(yīng)起來另外一張8×8的圖里,Atlas到一起。對于小而亮的部分離的表面越遠(yuǎn),每幀又有jitter又有方向,引導(dǎo)方向不一樣。有時沒追蹤到,它的噪點就會比較多,并且trace長度越長光線的一致性也不好,所以相反離得遠(yuǎn)的光源,相對貢獻(xiàn)得光照變化頻率也比較低。因為我離的很遠(yuǎn)以后局部光有一些位移,對我這里的影響是很小的。
所以我們可以用一個世界空間的probe來處理,因為這個時候可以做大量的cache,這里我的世界空間也是一個clipmap,它也是稀疏存儲的。因為只有我Screen Space的Probe Tracing訪問不到的東西,我才會去布置更多的World Space的Probe去做更新處理,這里就不展開講了。
最終,我們需要在全分辨率的情況下做積分,這時有一個辦法,就是根據(jù)全分辨率像素得到BRDF采樣,方法就是我剛才說的,從Screen Probe里面找。比如8×8像素周圍的都去找跟它方向一致的weight去插值,但這樣噪點還是很多,所以我們其實是從它的mip里面去預(yù)處理,從filter過的結(jié)果里去找。
這樣還會有一個問題:我自己朝向的平面,比如8×8像素周圍的都去找跟它方向一致的weight去插值,所以最終我們把八面體的radiance轉(zhuǎn)成了三階球諧,這樣全分辨率的時候能非常高效的利用球諧系數(shù)做漫反射積分,這樣的結(jié)果質(zhì)量和效率都很好。
最后的最后我們又做了一次,我對每個像素都做完之后,再做一次temporal的濾波,但是會根據(jù)像素追蹤到的位置的速度和深度來決定我這個像素的變化,是不是快速移動物體區(qū)域投影過來的,來決定我這個temporal filter的強度。
我temporal filter越弱,其實就相當(dāng)于前面我去采樣的時候積分起來的時候,我采樣周圍3×3 Spatial Filter效果就越強。整體上Lumen的框架就是這樣,我略過了大量細(xì)節(jié)和一些特殊處理的部分。譬如半透明物體的GI沒有講到,Spectular我也沒有特殊講,但是像spectular在粗糙度0.3到1的情況下,和這里importance sampling的diffuse其實是一致的。
Lumen的未來
在未來,我們也希望能做進(jìn)一步改進(jìn),比如鏡面反射,Glossy反射我們已經(jīng)能很好處理,但是鏡面反射在不用硬件追蹤的情況下,現(xiàn)在Lumen效果還是不夠的,包括SkeletalMesh的場景表達(dá)方式、破碎物體的場景表達(dá)方式,以及更好處理非模塊化的整個物體。因為現(xiàn)在模塊化整體captured card或者SDF的各種精度處理,可能還不夠完善。
我們希望提升植被品質(zhì),以及更快速地支持光照變化,因為我們有很多hard limiter的更新,比如card數(shù)量之類的,會導(dǎo)致你過快更新時跟不上。最后,我們還希望能支持更大的世界,譬如可以串流SDF數(shù)據(jù),以及做GPU driven的Surface Cache。關(guān)于Lumen我們今天就先講到這里。
其他功能與Q&A
講完兩大招牌功能,我們快速過一下別的功能:比如最常被大家提到的大世界支持。從UE5開始我們有了更好的工具,比如World Partition就升級成了全新的數(shù)據(jù)組織方式,配合一套streaming系統(tǒng),我們不需要手動處理runtime的streaming,引擎會幫你自動切分出不同的Partition,自動處理加載策略。
而且在這個基礎(chǔ)上,我們又有Data Layer對于不同邏輯的處理,有World Partition Stream Policy根據(jù)layer對不同的Policy的定制,有Level Instance——可以把Level看成Actor、嵌套組成模板、模塊化搭建地圖,并且在Level Instance層級上設(shè)置Hlod的參數(shù)。
為了協(xié)同工作,我們還引入了One File Per Actor,大家每次在地圖上編輯或新增時,其實只改到了一個獨立的actor所對應(yīng)的文件,文件鎖的粒度比較細(xì),就不會去動整個地圖文件,這樣引擎也會自動幫你管理這些散文件的changelist生成。
最后,我們還做了大世界的精度支持,把整個Transform的各種計算都改到了雙精度浮點支持。另外,我們在Mobile上也做了更多支持,比如Turnkey全新的打包工作流程,移動端延遲渲染也進(jìn)入了beta階段。
除此之外,iOS我們也做了很多改進(jìn),在正式版本我們新增了opengles延遲渲染管線的支持,比如mali上的pixel local storage。同時我們也加入了DFShadow支持,以及一些新的shading model:例如和pc統(tǒng)一利用Burley SSS參數(shù)驅(qū)動的移動版本的preintegrated皮膚。
同時我們終于對DXC下的半精度做了支持,而且把所有的Metal Vulkan openGLES都用DXC做了轉(zhuǎn)換。同時我們還加入了point light shadow、CSM cache和帶寬優(yōu)化過的565的RVT,做了全新的 gpu instance culling和更高效的auto-instancing等功能。
對于其他的各種平臺,我們Unreal Turnkey工作流是跨所有平臺開發(fā)打包發(fā)布的流程。目標(biāo)是一鍵就把項目發(fā)布到任意支持的平臺的全新設(shè)備上,自動完成所有工具鏈和SDK的安裝部署,從4.25后面版本開始我們已經(jīng)支持下一代主機了,伴隨接下來《堡壘之夜》在這些平臺上的優(yōu)化和遷移,UE5上我們對這些支持會更完善一些。
在這些主機平臺上我們對體積云、物理場等,包括加載效率 TSR等都做了大量的優(yōu)化。也有大量內(nèi)存優(yōu)化(尤其DX12,buddy allocator改pooling)。rdg insights提供了對RHI層的每幀中間渲染資源的復(fù)用的這種profiling編輯器。
編輯器我們改善了用戶體驗,用了比較深色的主題的統(tǒng)一配色,大家可以自己去靈活配置。擴(kuò)大了視窗的利用率,集成Quixel Bridge能方便的瀏覽bridge庫中的資產(chǎn)并直接拖到場景中。
另外我們也加入了Game Feature plugin,是一個全新的數(shù)據(jù)驅(qū)動的框架,類似之前的游戲框架,現(xiàn)在可以干凈的分離到gamefeature插件里方便的激活和卸載,做Game Features和模塊化的Gameplay,你可以把各種類、數(shù)據(jù)、內(nèi)容以及對應(yīng)的debug/cheat相關(guān)的內(nèi)容封裝到不同的插件模塊里面,可以針對性的通過component來在特定的Actor上啟用,這樣 gameplay模塊的擴(kuò)展性、重用性、穩(wěn)定性都能有很好的改善。
MetaSounds也是在EA版本就發(fā)布的, 是讓音頻系統(tǒng)有跟渲染管線類似的可編程性的一套工具。類似audio用的shader,所以可以更靈活的使用和操縱原始的音頻數(shù)據(jù)。MetaSounds用來替換以前比較簡陋的soundcue,可以更高效、更靈活、更可擴(kuò)展,Quartz 是暴露給bp系統(tǒng)的一套用來精確采樣音頻數(shù)據(jù)和事件的系統(tǒng),可以讓你完善地完成類似吉他英雄這種的需要非常準(zhǔn)確的幀時間的采樣音效、同步控制的這樣一套系統(tǒng)。
另外我們還有別的一套系統(tǒng)(Audio Synesthesia),可以幫助你離線也可以實時對音頻做分析,然后把音頻做可視化。比如利用niagara或者材質(zhì)做可視化。
chaos的物理系統(tǒng),在UE5開始我們整個物理系統(tǒng)都會切換到chaos,它的一大目標(biāo)是能有更多的gameplay的交互接口,跟gameplay系統(tǒng)結(jié)合更緊密,并且支持網(wǎng)絡(luò)同步。Early Access版本中我們Rigid body模擬已經(jīng)修了很多bug,減少了碰撞對的生成、預(yù)先做了更多剔除、修復(fù)了一些查詢巨大三角面時的錯誤結(jié)果、改進(jìn)了超高速移動物體或很低幀數(shù)下默認(rèn)啟用CCD時不正常的效果、也改了ragdoll模擬穩(wěn)定性的一些bug。
在正式版本中,對于PBD的性能和穩(wěn)定性做了更多優(yōu)化,做了很好的載具的支持,并且支持網(wǎng)絡(luò)同步的物理模擬的框架。然后還有各種特殊的solver,比如布料和流體的模擬也得到了增強和改善。
關(guān)于整套Unreal Insights工具,我們改善了現(xiàn)有的Timing, Loading, Network和Animation 的功能,同時新版本里面還有Memory Insights。通過Memory Insights,我們能按照LLM的方式按類型來看內(nèi)存是怎么分配的,然后我們?nèi)绻覯emory Malloc這樣一個參數(shù)的話,Memory Insights還可以幫助大家看到所有的調(diào)用、堆棧、分類 甚至查Memory Leak。有很多這種好用的工具,剛剛也說到RDG Insights,來看整個渲染的管線資源分配、復(fù)用、生命周期各種各樣比較好用的功能。
最后是Meta Human Creator,高質(zhì)量的數(shù)字人創(chuàng)建工具,可以幫助小團(tuán)隊在幾分鐘或者幾小時內(nèi)就創(chuàng)作出3A品質(zhì)的、帶完整rigging,可以用來做動畫的數(shù)字角色。伴隨UE5的發(fā)布,我們MHC的創(chuàng)建角色在引擎里面會有更多更好的表現(xiàn)。這樣品質(zhì)的數(shù)字角色本來只在3A作品里能看到,現(xiàn)在每個人都能制作,并且通過bridge直接在content browser拓出來,在引擎里面使用。
Q & A
UE5.0正式版會在什么時候發(fā)布?
王禰:目前預(yù)計是明年上半年,可能在4月份左右發(fā)布。
UE5.0之后還會支持曲面細(xì)分嗎?
王禰:由于不少硬件平臺曲面細(xì)分效率的問題,我們打算徹底去掉。未來我們會嘗試用Nanite去做,但是目前還沒有做到。所以現(xiàn)在的workaround如果不做變形,那就只能靠Nanitemesh或者靠Virtual Heightfield Mesh來處理。
版權(quán)聲明:本文內(nèi)容由互聯(lián)網(wǎng)用戶自發(fā)貢獻(xiàn),該文觀點僅代表作者本人。本站僅提供信息存儲空間服務(wù),不擁有所有權(quán),不承擔(dān)相關(guān)法律責(zé)任。如發(fā)現(xiàn)本站有涉嫌抄襲侵權(quán)/違法違規(guī)的內(nèi)容, 請發(fā)送郵件至 舉報,一經(jīng)查實,本站將立刻刪除。