人气 325

[综合技术] 在Unity中实现屏幕空间反射Screen Space Reflection(1) [复制链接]

九艺网 2019-8-14 14:02:18

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?注册

x
本篇文章我会介绍一下我自己在Unity中实现的SSR效果

出发点是理解SSR效果的原理,因此最终效果不是非常完美的(代码都是够用就行),但是从学习的角度来说足以学习到SSR中的核心算法。

如果对核心算法没有兴趣,可以直接使用Unity官方的PostProcessing库,其中包含了一个SSR效果。(其实现来自于casual effects)

完成的工程:
https://github.com/yangrc1234/ScreenSpaceReflection

目前只在2017.1、DirectX下实现,没有进行其他测试。除非以后有需求,否则可能不会更新这个repo,毕竟官方已经有解决方案了,没必要重复造轮子。这个repo用于学习目的就行了。

一些shader的宏、变量可能是2017.1才有的,如果老版本编译不过欢迎提issue。

871155-20171004212227599-1376735684.png

第一部分包含屏幕空间反射的定义、以及一个最初步的实现。

屏幕空间反射

屏幕空间反射是一个后处理效果。通过对屏幕空间的画面,按一定方式投射光线,采样光线路径上的像素,得到一个点上的反射颜色。

比如说,对于一个像素A,我们去计算它的反射。要计算反射,我们必须要知道视线方向和该点的空间位置以及的法线方向,从而计算出光线的方向。
视线方向好说,空间位置,我们可以从深度贴图中还原出来。法线方向意味着屏幕空间反射只能在Deferred Rendering下进行。在Deferred Rendering下我们可以轻松的从GBuffer中得到一个点的法线方向。

获取这些信息后,我们就可以开始投射光线了。每次光线步进,我们都将当前位置的点再投影到屏幕空间上,去采样屏幕上的像素。如果我们计算得到(如何计算等下再说)该像素是光线路径上的一点,我们就可以将该点返回作为结果了。

以下是实际代码:
  1.     [ImageEffectOpaque]
  2.     private void OnRenderImage(RenderTexture source, RenderTexture destination) {
  3.         mat.SetTexture("_BackfaceTex", GetBackfaceTexture());
  4.         mat.SetMatrix("_WorldToView", GetComponent().worldToCameraMatrix);        //emmmmm不知道为什么UNITY_MATRIX_V在这里变成了一个单位矩阵。需要手动设置world to view的矩阵。
  5.         Graphics.Blit(source, destination, mat,0);   
  6.     }
复制代码
  1.             v2f vert (appdata v)
  2.             {
  3.                 v2f o;
  4.                 o.vertex = UnityObjectToClipPos(v.vertex);
  5.                 o.uv = v.uv;
  6.                 float4 cameraRay = float4(v.uv * 2.0 - 1.0, 1.0, 1.0);    //作为一个后期特效,我们可以通过uv坐标,来获得相机光线方向。注意坐标z为1.0,这里的cameraRay是从原点到far clip plane的光线
  7.                 cameraRay = mul(unity_CameraInvProjection, cameraRay);    //将相机光线从clip space转移到view space
  8.                 o.csRay = cameraRay / cameraRay.w;           
  9.                 return o;
  10.             }

  11.                         fixed4 frag (v2f i) : SV_Target
  12.             {
  13.                 float decodedDepth = Linear01Depth(tex2D(_CameraDepthTexture, i.uv).r);   
  14.                 float3 csRayOrigin = decodedDepth * i.csRay;        //因为i.csRay是指着far clip plane的光线,此时csRayOrigin是view space的光线起点
  15.                 float3 wsNormal = tex2D(_CameraGBufferTexture2, i.uv).rgb * 2.0 - 1.0;    //世界坐标系下的法线
  16.                 float3 csNormal = normalize(mul((float3x3)_WorldToView, wsNormal));    //将转换到view space

  17.                                 float2 hitPixel;
  18.                 float3 debugCol;
  19.                                        
  20.                 if (traceRay(        //检测相交
  21.                         csRayOrigin,
  22.                         normalize(reflect(csRayOrigin, csNormal)),
  23.                         hitPixel,    //out
  24.                         debugCol))    //out
  25.                 {
  26.                         reflection = (1 - rayPercent) * tex2D(_MainTex, hitPixel);
  27.                 }
  28.                 //return float4(debugCol, 1);
  29.                 return tex2D(_MainTex, i.uv) + tex2D(_CameraGBufferTexture1,i.uv) * half4(reflection,1);
  30.             }
复制代码

在traceRay方法中,我们进行实际的光线投射、相交检测。

traceRay的签名中我设置了一个debugCol的参数,当我需要debug这个函数时,我将需要debug的内容放到debugCol中,在main里输出debugCol的颜色。这只是我个人的习惯。

对于反射颜色的计算,我只是简单的获取了那个像素的颜色,然后加到输出里去而已。事实上,因为我们是在Deferred rendering模式下,我们可以获取到该点的所有的用于着色的信息,用这些信息我们可以进行一次完整的基于物理着色。在PostProcessing中的SSR就是这么做的,可以参考一下。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 注册

QQ|手机版|小黑屋|九艺游戏动画论坛 ( 津ICP备2022000452号-1 )

GMT+8, 2024-4-19 11:25 , Processed in 0.168768 second(s), 26 queries .

Powered by Discuz! X3.4  © 2001-2017 Discuz Team.