通过构建一个包含无纹理三维模型、描述其目标外观的文本提示、以及最终着色完成的三维模型的大规模配对数据集,可以为深度学习模型提供训练基础,使其学习从文本指令到模型表面属性的精准映射。这一数据集适用于游戏资产的快速生成与迭代、虚拟化身与环境的个性化定制、工业产品不同材质和配色的可视化以及电子商务商品展示等领域。利用该数据训练出的模型,能够让设计师和开发者通过自然语言指令为三维模型自动进行纹理绘制和上色,从而极大简化了传统UV展开、贴图绘制和材质设定的复杂流程,解决了三维模型纹理制作技术门槛高、耗时耗力的问题。
基于文本提示为三维模型上色是实现自动化内容生成的关键流程。具体过程包括:(1)数据收集:输入一个无纹理的三维模型(M_uncolored)和一个描述目标颜色、纹理或风格的文本(T_prompt)。(2)数据处理:分别使用几何编码器和文本编码器处理输入。几何编码器将三维模型的形状信息编码为特征向量,而文本编码器将文本提示的语义信息编码为另一个特征向量。随后,将这两个特征向量进行融合,形成一个统一的条件特征向量。该特征向量通过公式 F_combined = Fuse(Encoder_geo(M_uncolored), Encoder_text(T_prompt)) 提取,其中 F_combined 为融合特征向量,Encoder_geo 为几何编码器,Encoder_text 为文本编码器。(3)模型构建:使用融合特征向量 F_combined 作为条件,设计并搭建一个深度生成模型,该模型学习根据文本意图在原始几何表面上生成颜色或纹理信息。根据公式 Texture_map = Decoder_color(F_combined) 从融合特征中解码生成对应的纹理贴图,其中 Texture_map 为生成的纹理贴图,Decoder_color 为颜色/纹理解码器;关键的评估指标包括用于衡量感知相似度的学习感知图像块相似度(LPIIPs)和用于评估生成图像质量的弗雷切特起始距离(FID)。此方法适用于三维模型的自动化和智能化纹理生成,通过输入文本指令,实现对模型外观的高效定制和创作。
| 字段名 | 类型 | 描述 |
|---|---|---|
编号 |
-- | -- |
文本 |
-- | -- |
无纹理的三维模型 |
-- | -- |
融合特征向量 |
-- | -- |
纹理贴图 |
-- | -- |
| fieldName | exampleValue |
|---|---|
| 编号 | V-20250904-SH0000 |
| 文本 | 手工粗陶 |
| 无纹理的三维模型 | data\V-20250904-SH0000\3d_model_origin.o |
curl -H "Authorization: Bearer YOUR_API_KEY" \
http://localhost:3001/api/v1/datasets/5053435