Unity 实现贴花效果的制作教程

2022-07-20,,,

目录
  • 一、前言
  • 二、实现方式介绍
  • 三、实现过程
    • 检测uv位置并替换像素颜色:
    • 修改替换信息为图片信息:
    • 运行时使用复制贴图:
    • 修改帧检测断触问题:
  • 总结

    一、前言

    在云艾尔登法环时,看到地面上的血迹时,发现某些地方脱离的地面,似乎是通过面片的方式实现的效果。但是同时某些,不过这种类型的血迹有道具的效果,估计是为了实现碰撞检测的功能才选择了面片的方式

    而其他的战斗痕迹的效果似乎是通过贴花来实现的,贴花的方式多种多样。而在unity中,有一种给官方文档提供代码的解决方案。这里就在这些代码的基础上做一个绘图的贴花效果,最终效果如图所示:

    二、实现方式介绍

    简单的来说就是通过发射一条射线与物体发生碰撞来获取物体的基本的信息,然后提取出碰撞处该物体的uv坐标点,然后进行一个计算得到物体对应texture2d的像素信息,然后对这些像素进行一个颜色的替换,最后就可以得到一张贴花效果的texture2d

    这种方式的第一步就是需要通过发射一条射线,然后得到碰撞检测点的信息,这里用到的api为:

    使用该api的返回结果是物体网格对应的uv坐标点,没有办法直接的去使用,需要先通过坐标转换,即通过uv坐标来获取到其texture2d对应的像素点。在unity中,我们知道uv坐标对应的范围为0到1,这样来说,只要将其与对应texture2d的像素数量与uv坐标进行一个乘法计算就可以得到最后对应像素的下标位置

    在得到检测位置的像素下表后,就可以根据被贴图的texture2d的像素的宽高做一个计算,得到物体贴图的替换范围与下标,然后执行一遍遍历,对于所有替换的像素颜色一一对应,然后执行一个像素颜色的计算,做一个混合即可

    三、实现过程

    检测uv位置并替换像素颜色:

    首先查阅unity官方文档,得到射线检测uv坐标的代码,核心围绕raycasthit对应的api来得到检测的uv坐标并进行处理,代码如下:

    public class exampleclass : monobehaviour
    {
        public camera cam;
    
        void start()
        {
            cam = getcomponent<camera>();
        }
    
        void update()
        {
            if (!input.getmousebutton(0))
                return;
    
            raycasthit hit;
            if (!physics.raycast(cam.screenpointtoray(input.mouseposition), out hit))
                return;
    
            renderer rend = hit.transform.getcomponent<renderer>();
            meshcollider meshcollider = hit.collider as meshcollider;
    
            if (rend == null || rend.sharedmaterial == null || rend.sharedmaterial.maintexture == null || meshcollider == null)
                return;
    
            texture2d tex = rend.material.maintexture as texture2d;
            vector2 pixeluv = hit.texturecoord;
            pixeluv.x *= tex.width;
            pixeluv.y *= tex.height;
    
            tex.setpixel((int)pixeluv.x, (int)pixeluv.y, color.black);
            tex.apply();
        }
    }
    

    然后在场景中创建一个quad作为射线被检测的物体,但是同时需要注意,对于物体执行操作时,需要理解一个细节,就是物体只有在挂载网格碰撞体时候,才能够获取到对应物体的uv信息,具体的细节在官方文档中也有提到,如图:

    创建完成物体后,需要通过一个材质来赋予该物体一张贴图,用来作为像素替换的贴图,我这里用了一张白色的图片,但是注意,在使用该图片时候,注意修改该图片的导入设置中的read/write enabled为开启状态,这样才可以进行后续的修改:

    如果你测试这段代码,可能发现在点击后并没有发生什么变化,因为这一段代码只会对一个像素点执行替换操作,运行效果看起来并不明显。为了提升显示效果,这里可以先做一个简单的计算,来设计一个像素块作为替换的基本单元,以便于结果的观察。而计算方式为通过这个像素点的下表位置来计算出一个大小合适的方格区域,定义一个vector2的属性,命名为replacerange,然后修改像素替换区域的代码:

     	for (int i = 0; i < replacerange.x; i++)
            {
                for (int j = 0; j < replacerange.y; j++)
                {
                    tex.setpixel((int)pixeluv.x+i- (int)replacerange.x/2, (int)pixeluv.y+j-(int)replacerange.y/2, color.black);
                }
    
            }
    

    然后运行整个场景,如果脚本执行成功的话,就可以看到正确的显示效果:

    修改替换信息为图片信息:

    上面我们对于每一个像素的颜色值进行替换时,使用的是指定的颜色数字。接下来就需要进行一定的扩展,将信息的提取方式修改为图片提取的方式。

    同样定义一个texture2d属性命名为:covertex,然后提取这张texture2d的信息,并覆盖掉对应点击点的像素信息,这里定义一个draw方法来单独的处理这件事情:

    	public void draw(texture2d orgintex,texture2d covertex,vector2 pixeluv)
        {
            for (int i = 0; i < covertex.width; i++)
            {
                for (int j = 0; j < covertex.height; j++)
                {
                    color colororiginal = orgintex.getpixel((int)pixeluv.x + i - (int)covertex.width / 2, (int)pixeluv.y + j - (int)covertex.height / 2);
                    color colorcover = covertex.getpixel(i, j);
                    color colorresult = colorcover * colorcover.a + (1 - colorcover.a) * colororiginal;
                    orgintex.setpixel((int)pixeluv.x + i - (int)covertex.width / 2, (int)pixeluv.y + j - (int)covertex.height / 2, colorresult);
                    
                }
            }
        }
    

    注意,在上面的代码中,我们对于两个颜色值有一个简单的计算用来混合两个有透明通道的颜色值。假设颜色a要覆盖掉颜色b,这里使用的计算公式为:

    a*a.a+(1-a.a)*b

    通过上面的公式,可以简单的处理两个颜色的a通道的覆盖结果,也许这种方式不是很准确,但是对于完全透明的像素或者完全不透明的像素的混合还是比较有效的,这样就很方便 的处理不规则形状的贴花

    将上面的颜色快的方式替换掉,可以观察一下效果:

    当我们使用到一张圆形的贴图后,我们就可以看到成功的执行了替换

    运行时使用复制贴图:

    如果我们直接使用本体的贴图来修改材质,就会发现本地的资源也被执行了修改,这样会造成下次进入游戏,整个贴图的状态也不会刷新。为了避免这个问题,可以在每次执行像素替换时,复制一份贴图来作为被贴画的材质贴图,不过这里就不进行演示,可以在自己的项目中,根据需要来决定是否执行该操作

    修改帧检测断触问题:

    上面的一个代码,有一个特点,就是可以通过连续的绘制来做出一些图案,有一些类似于江南白景图游戏中抽卡前的绘制效果,但是通过上面的代码来实现时,就会发现如果鼠标移动的过快,相邻的两个绘制点之间会产生空隙,如图所示:

    为了解决这样一个问题,这里在每一帧执行绘制之后都缓存本帧的uv坐标,同时在绘制时与上一帧的uv坐标进行距离对比,如果超出一定的距离。就在中间执行插值的操作

    同时为了保证性能,需要固定距离的执行插值操作,为了简化计算,将两帧坐标的距离分为x与y方向分别进行判断,同时为了保证斜率,得到最大偏差的方向进行等距的插值,具体的逻辑代码为:

    		if (!isclick)
            {
                draw(tex, covertex, pixeluv);
                catchpos = pixeluv;
                isclick = true;
            }
            else
            {
    
                if (vector2.distance(pixeluv, catchpos) < covertex.width / 4)
                {
                    draw(tex, covertex, pixeluv);
                }
                else
                {
                    vector2 pixelcatchuv = catchpos;
                    float lerpnum=0;
                    float interval = 1 / (mathf.max(mathf.abs(pixeluv.x - pixelcatchuv.x), mathf.abs(pixeluv.y - pixelcatchuv.y)) / (covertex.width/4));
                    while (lerpnum<=1)
                    {
                        lerpnum += interval;
                        catchpos = vector2.lerp(pixelcatchuv, pixeluv, interpolationcalculation(lerpnum));
                        draw(tex, covertex, catchpos);
                    }
                    catchpos = pixeluv;
                    draw(tex, covertex, catchpos);
                }
            }
    

    执行代码的显示结果为:

    总结

    从实现过程中面临的一些问题来看,这种贴画效果的实现限制条件很多,性能表现上也是比较差的,适合做一些局部的贴画效果实现,比如百景图的抽卡绘制的效果

    而若想实现全局的效果,在uv平铺方面与贴图的缓存方面都有很大的挑战,还是建议尝试一下其他方式,最后,贴上完整的代码:

    using system.collections;
    using system.collections.generic;
    using unityengine;
    
    public class test : monobehaviour
    {
        public camera cam;
        public texture2d covertex;
    
        private texture2d catchtexture;
        private vector2 catchpos;
        private bool isfirst=true;
        private bool isclick = false;
    
        void awake()
        {
            application.targetframerate = 200;
        }
    
        void update()
        {
            if (input.getkeydown(keycode.space))
            {
                isfirst = true;
            }
            drawsticker();
    
        }
        
    
        public void drawsticker()
        {
            if (!input.getmousebutton(0))
            {
                isclick = false;
                return;
            }            
            raycasthit hit;
            if (!physics.raycast(cam.screenpointtoray(input.mouseposition), out hit))
                return;
            renderer rend = hit.transform.getcomponent<renderer>();
            meshcollider meshcollider = hit.collider as meshcollider;
            if (rend == null || rend.sharedmaterial == null || rend.sharedmaterial.maintexture == null || meshcollider == null)
                return;
            if (isfirst)
            {
                if (catchtexture == null)
                {
                    catchtexture = rend.material.maintexture as texture2d;
                }
                rend.material.maintexture = instantiate(catchtexture);
                isfirst = false;
            }
            texture2d tex = rend.material.maintexture as texture2d;
            vector2 pixeluv = hit.texturecoord;
            pixeluv.x *= tex.width;
            pixeluv.y *= tex.height;
            if (!isclick)
            {
                draw(tex, covertex, pixeluv);
                catchpos = pixeluv;
                isclick = true;
            }
            else
            {
                if (vector2.distance(pixeluv, catchpos) < covertex.width / 4)
                {
                    draw(tex, covertex, pixeluv);
                }
                else
                {
                    vector2 pixelcatchuv = catchpos;
                    float lerpnum=0;
                    float interval = 1 / (mathf.max(mathf.abs(pixeluv.x - pixelcatchuv.x), mathf.abs(pixeluv.y - pixelcatchuv.y)) / (covertex.width/4));
                    while (lerpnum<=1)
                    {
                        lerpnum += interval;
                        catchpos = vector2.lerp(pixelcatchuv, pixeluv, interpolationcalculation(lerpnum));
                        draw(tex, covertex, catchpos);
                    }
                    catchpos = pixeluv;
                    draw(tex, covertex, catchpos);
                }
            }
            tex.apply();
        }
    
        float interpolationcalculation(float num)
        {
            return 3 * mathf.pow(num, 2) - 2 * mathf.pow(num, 3);
        }
    
        public void draw(texture2d orgintex,texture2d covertex,vector2 pixeluv)
        {
            for (int i = 0; i < covertex.width; i++)
            {
                for (int j = 0; j < covertex.height; j++)
                {
                    color colororiginal = orgintex.getpixel((int)pixeluv.x + i - (int)covertex.width / 2, (int)pixeluv.y + j - (int)covertex.height / 2);
                    color colorcover = covertex.getpixel(i, j);
                    color colorresult = colorcover * colorcover.a + (1 - colorcover.a) * colororiginal;
    
                    orgintex.setpixel((int)pixeluv.x + i - (int)covertex.width / 2, (int)pixeluv.y + j - (int)covertex.height / 2, colorresult);
                    
                }
            }
        }
    
    }
     

    以上就是unity 实现贴花效果的制作教程的详细内容,更多关于unity的资料请关注其它相关文章!

    《Unity 实现贴花效果的制作教程.doc》

    下载本文的Word格式文档,以方便收藏与打印。