» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

Nvidia正式发布革命性AI图像技术

posted by wap, platform: Chrome
更逼真的人脸动画表情

3D 动画中人物面部表情的制作是一个极度耗时的事情。英伟达的新技术能把虚拟人物的表情与音频输入完美匹配,换句话说,它能让虚拟人物的口形与配音更加吻合。但它并不止于控制动画虚拟人物的嘴部,包括眉毛等多达 5000 处面部表情特征,都将在 AI 算法加持下随音频输入做出各种动作。英伟达共有七篇论文被 SIGGRAPH 2017 收录,这是其中之一,有潜力大幅节省动画、游戏的开发时间。

去除图像预览噪点

生成逼真的图像需要对数以百万计的虚拟光线进行计算——这极度耗时,取决于不同的图像,可能会耗费几分钟、几小时甚至一整天的时间。英伟达在深度神经网络上,使用上万个清晰、有大量噪点的图片预览组进行训练,结果大幅了提高去除噪点的速度,使得它能实时实现。

抗锯齿

借助神经网络让系统对每一帧图像中发生的动作进行理解,实现更好的抗锯齿效果。

光线传播路径

虚拟场景中的光线追踪速度“提升了十倍”。

以上功能将会在11月份OPTIX 5.0 SDK中免费提供
附件: 您所在的用户组无法下载或查看附件


TOP

posted by wap, platform: Chrome
引用:
原帖由 @女武神  于 2017-8-2 10:33 发表
现在引擎就有 这个意思 老黄的延时更少 更精确 资源消耗更少?
据现场NV的说法,基于GPU的DNN去噪点算法跟CPU降噪软件算法相比在局部细节放大10倍下没有肉眼可见区别,速度快100倍以上(可能指的是单个CPU)。

本帖最后由 u571 于 2017-8-2 10:38 通过手机版编辑



TOP

posted by wap, platform: Chrome
引用:
原帖由 @jun4rui  于 2017-8-2 11:06 发表
老黄的团队不错啊,居然能想出深度学习解决图形问题,成品还出来得这么快
用深度学习抗锯齿和去噪点这个2015年GTC上就已经有论文了,现在是商业化

AI虚拟面部表情这个其实EA和育碧已经在用了,老黄只不过加到gameworks全家桶里而已。

本帖最后由 u571 于 2017-8-2 11:11 通过手机版编辑


TOP

posted by wap, platform: Chrome
引用:
原帖由 @ginaamix  于 2017-8-3 10:09 发表
楼主说的去噪点是这个吗
https://tieba.baidu.com/p/5254755501
是的,目前业界非常看好这个技术,将来很有潜力彻底取代目前的主流的CPU软件光线追踪离线渲染。

TOP

posted by wap, platform: Chrome
引用:
原帖由 @Nemo_theCaptain  于 2017-8-2 12:38 发表
哪来的2代
魔都风月不算2代,而且只是个骗钱的皮包项目,干脆没投入实际开发
1代没人用的原因当年一干开发者(比如顽皮狗)就说过了,局限性太大,镜头都不能转,表情等同于动态贴图式的播片
不过黑洛启发了一干游戏启动Photoscan扫描物件的模型和贴图,只是,不用来捕捉表情

输入音频自动得出嘴形,2004年的半条命2就有了
NV这个技术的先进在于除了嘴形连整个脸都能生成出来
Siggraph17老黄还有一篇论文,利用深度学习虚拟完全不同的各类超高分辨率材质,画面表现力会大大超越目前的传统光栅化渲染,现在老黄已经正式打出了“Bring AI to Graphics” 的口号,未来主流游戏显卡有可能会加入V100那样AI专用Tensor Core

TOP

发新话题
     
官方公众号及微博