新闻 发表于 2025-1-23 04:21

图像1秒变3D模型、AI自动绑定骨骼生成动画?!生成式AI这是组团贴脸开大啊…

作者:微信文章
点击上方蓝字CG世界关注我们再点右上角···设为星标★

众所周知,在生成式AI和人类艺术家这场旷日持久的“战争”中,作为一个理智、客观且始终秉持专业态度的CG领域自媒体,CG世界一直都是兢兢业业做着信息搬运工,不站队、不引战、不带节奏!

BUT,小编也必须承认,最近还是被生成式AI这汹涌的势头给冲的愣了一下下。



春节将近,大厂们开始坐不住花式整活了。一个个忙着赶在中国年,给大家狂发生成式AI体验卡。3D艺术家们:不好,这波冲我来的……

↓推广↓



2025

腾讯

混元3D模型



咱先从国内说起。

近日,腾讯宣布正式开源并上线其最新的混元3D生成大模型的2.0版本,同时推出业界首个一站式3D内容AI创作平台→混元3D AI创作引擎。



混元3D 2.0

混元3D 2.0版本,对几何和纹理两个方面的大规模模型进行了优化。
主要基于两个高级模型工作:第一阶段,Hunyuan3D-DiT负责创建物体的基本形状。利用扩散变换器(diffusion transformer)根据参考图像创建精确的几何形状,这种方法产生的网格能够忠实地遵循初始条件,可以在各种应用场景中使用。
第二阶段,Hunyuan3D-Paint则负责添加纹理、颜色等表面细节。专注于将高分辨率纹理应用到手工生成或制造的网格上,采用先进的视觉合成技术,并利用预先存在的几何知识来提升纹理表面的质量。





系统首先从不同视角生成2D视图,然后将这些视图组合成完整的3D模型。新加入的引导系统能够确保所有视角的一致性,解决了以往AI生成3D模型时视角不一致的问题。



混元3D 2.0的优势也很突出,标准版本可以在约25秒内创建一个完整的3D模型,而小型版本则只需要10秒。

混元3D 2.0可以处理文本和图像的输入,比之前的解决方案更加灵活;同时引入了“自适应分类器自由引导(adaptive classifier-free guidance)”和“混合输入(hybrid inputs)”等新功能,确保生成的3D模型在细节上的一致性和丰富性。而混元3D 2.0的另一关键性技术进步是,可以在不需要巨大计算能力的情况下创建高分辨率模型。

根据行业标准评估,混元3D 2.0生成的3D模型无论在技术精度还是美学角度,都优于现有的其他同类型工具。

整体模型比较↓


几何模型比较↓


纹理模型比较↓


生成可视化比较↓


另外,腾讯几乎开放了系统的全部代码,并通过Hugging Face分享给了公众。开发者现在可以使用这些代码创建兼容标准设计软件的3D模型,将其即时应用到专业环境中。

混元3D AI创作引擎

在混元3D 2.0的加持下,混元3D AI创作引擎实现了3D资产的一键式创建、换肤、动画化,以及3D游戏视频自动生成。



混元3D AI创作引擎包含三层架构设计,目的是让AI技术贯穿3D制作流程的多个阶段,构建一个功能完备的3D AI创作平台:

模型层:基于先进的3D-DiT(3D Diffusion in Time)和3D-Paint基础模型,用于支撑高质量3D内容的生成。

能力层:整合了3D功能矩阵、3D生成工作流和3D素材库,为用户提供一系列强大的3D资产生成功能。

应用层:针对不同业务场景,提供低成本定制化的解决方案,方便用户根据自己的需求快速实现创意。

这一平台的出现,让用户体验到了前所未有的便捷性,只需要输入简单的文字描述或一张图片/草图,就能快速生成3D模型。不仅如此,用户还能够进一步添加动作、更换纹理,甚至根据需求进行角色定制和动画制作。



此外,混元3D AI创作引擎的基础模型能够同时处理文生3D和图生3D的转换,提高了几何结构的精细度,丰富了纹理色彩,并支持用户选择不同的纹理风格和PBR贴图。除了支持多种输入方式,能够生成多样化3D模型并选择不同纹理风格外,还能够根据对象的复杂程度,自适应地生成低多边形(low-poly)模型。



除了生成模型,混元3D AI创作引擎能够一键为模型绑定骨骼并自动生成动画(目前只适用于标准T字姿态)。





3D功能矩阵专注于优化3D创作管线,提供了多种3D资产生成与编辑的能力;灵感广场则展示了丰富的3D模型素材库,用户可以根据不同的场景类别浏览和选择素材后,直接下载或基于这些素材进行二次创作。

通过平台生成的3D模型还可以通过链接轻松分享给朋友,并且能够在PC端和移动端上预览、交互和下载。
等不及想去试试水的宝子,这边指路:https://3d.hunyuan.tencent.com/

2025

Stability AI+NVIDIA

Stable Point Aware 3D



说完了腾讯的混元3D 2.0,咱们再来聊聊以图像生成AI闻名的Stability AI和NVIDIA合作开发的Stable Point Aware 3D。


video: https://mp.weixin.qq.com/mp/readtemplate?t=pages/video_player_tmpl&action=mpvideo&auto=0&vid=wxv_3824210613400535041
Stable Point Aware 3D引入了一种全新的系统架构,利用NVIDIA RTX加速,可以在1秒钟之内从一张2D图像,迅速生成完整的3D模型,同时允许用户对生成的模型进行实时编辑。



Stable Point Aware 3D的架构,首次将精确点云采样和高级网格生成技术结合起来,采用创新的两阶段处理流程。

不仅能够通过点云准确捕捉物体的基本形状,还能进一步创建精细且真实的3D网格模型。

第一阶段:使用专门设计的点扩散模型(point diffusion model)。模型根据输入的2D图像生成一个详细的点云,其中包含物体的基本结构信息,确保尽可能准确地反映原始物体的几何特征。
第二阶段:利用3D平面变换器(Triplane Transformer)处理由第一阶段生成的点云,并结合原始图像中的特征信息,生成高分辨率的3D平面数据,利用这些数据捕捉原始图像的形状、纹理和光照,并重构3D模型。

巧妙结合了回归建模的精度和生成式AI的灵活性,既保证了3D模型的准确性,又提供了创作上的自由度。



主要特点

实时编辑:允许用户即时对生成的3D模型进行各种编辑,包括删除、复制、拉伸、添加特征或重新着色点云数据。完整结构预测:即使从单个视角的图片中,也能准确预测出3D对象的整个几何形状,包括原始图片中看不到的部分,并提供详细的360度视图。极速生成:将编辑后的点云转化为最终网格只需0.3秒;从单一输入图像生成高度详细的3D模型仅需0.7秒。



基于Stability AI 社区许可证,无论是商业用途还是非商业用途,都可以免费使用Stable Point Aware 3D。


小伙伴们可以通过Hugging Face网站下载↓
https://huggingface.co/stabilityai/stable-point-aware-3d
在GitHub平台上找到并访问源代码↓
https://github.com/Stability-AI/stable-point-aware-3d
通过Stability AI开发者平台的API来将其集成到项目中↓
https://platform.stability.ai/docs/api-reference?utm_source=API+&utm_medium=blog+&utm_campaign=SPAR3D#tag/3D/paths/~1v2beta~13d~1stable-point-aware-3d/post
好了,今天的分享就先到这里,咱们下期再见啦~

end





“肝”一把!万一成了呢,名利双收!



笑发财!谁家好人这么做绑定测试!!!



毕业即巅峰?!00后小哥靠毕业作品直接拿下学生奥斯卡银奖!



超写实还得是CG渲染!2024超写实人物TOP30
页: [1]
查看完整版本: 图像1秒变3D模型、AI自动绑定骨骼生成动画?!生成式AI这是组团贴脸开大啊…