Stability AI最近发布了一款名为Stable Zero123的全新AI模型,该模型专注于从单张图片生成高质量的3D对象视图。这款模型是基于Stable Diffusion 1.5构建的,并且专为非商业和研究用途设计,目前已经在Hugging Face平台上开源。
Stable Zero123的核心优势在于其能够通过优化训练数据集和渲染方法,显著提升从单张图片生成逼真3D物体的能力。与之前的Zero123-XL相比,Stable Zero123在训练数据集和技术上进行了升级,使得模型能够更深入地理解目标物体的三维结构,并从多个角度生成新颖视角。 此外,Stable Zero123在训练和推理过程中提供了估计的相机角度数据,以提高图像精度,并通过预计算的潜变量和改进的数据加载器实现了更高效的训练,速度比Zero123-XL快了40倍。这一创新使得Stable Zero123在生成逼真的3D渲染方面达到了新的高度,尤其是在处理复杂背景或模糊主体的图像时,也表现出色。 尽管Stable Zero123在生成整个3D模型时需要较高的计算资源,建议使用至少24GB VRAM,但生成单个视图的门槛较低,用户可以通过简单的操作流程快速上手并生成所需的图像。Stability AI表示,未来有望进一步降低模型大小和GPU需求,使普通用户也能轻松使用自己的设备生成3D内容。 值得注意的是,Stable Zero123目前仅限于非商业和研究用途,用户可以下载权重并在自己的项目中使用,促进了计算机生成图像领域的合作与创新。然而,对于商业用途,建议用户直接联系Stability AI获取详细的使用许可和指导。 Stable Zero123的发布标志着AI在3D设计领域的重大突破,其强大的图像生成能力和开源特性为全球的设计师和开发者提供了广阔的创新空间,有望在未来的设计工作中发挥更加重要的作用。 |