Skywork UniPic开源!从零预训练打造生图、理解和编辑一体化模型

客服微996438433个月前财经知识68

此外,Skywork-UniPic 完成端到端优化流程,能够实现生成、理解、编辑三大能力的协同训练和相互促进,突破传统方法中能力权衡的技术瓶颈。

这一架构设计不仅保持了自回归模型的简洁高效,更通过共享编码器实现了跨任务的深度协同,为多模态统一模型的实用化部署奠定了坚实基础。

用户只需要输入提示词,Skywork-UniPic 既可以像 VLM 一样理解图像、像 T2I 模型一样生成图片,还可以像美图工具一样,一键实现风格转绘/吉卜力化的编辑功能。

02

模型优势:1.5B 轻量级规模性能逼近同类大参数统一模型,诠释了“小而美”的技术美学

团队在追求模型能力极限的同时,也坚持效率重要性的设计理念。Skywork UniPic 以 1.5B 的紧凑参数规模,真正诠释了“小而美”的技术美学:

多重技术亮点

指令遵循能力媲美大型模型:在 GenEval 指令遵循评估中取得 0.86 的优异成绩,超越了绝大多数同类统一模型,在无 CoT 的情况下取得了 SOTA 分数,逼近较大模型 BAGEL(7B+7B*)带 CoT 的 0.88 分;

复杂指令生图能力领先:在 DPG-Bench 复杂指令生图基准上达到 85.5 分的行业 SOTA 水平;

图像编辑能力统一模型第一梯队:GEditBench-EN 获得 5.83 分,ImgEdit-Bench 达到3.49分,展现出精准的编辑执行能力;

参数效率优势显著:相比同类大参数统一模型(如 BAGEL 的 14B 总参数、UniWorld-V1 的 19B 总参数),Skywork UniPic 以 1.5B 的轻量级规模实现了接近甚至超越大参数模型的性能表现;

部署友好,真正可落地:模型在 RTX 4090 消费级显卡上均可流畅运行,为广大开发者和研究者提供了真正可落,地的统一模型解决方案,大幅降低了技术应用门槛。

_Skywork UniPic开源!从零预训练打造生图、理解和编辑一体化模型_开源模型训练平台

03

Skywork-UniPic是怎样炼成的?

数据构建:亿级高质量语料库支撑统一模型预训练

首先,Skywork UniPic 的卓越性能,并非源自数据堆叠的蛮力,而是得益于一套高度精炼、系统优化的数据构建体系。

团队突破了“更大即更强”的传统认知边界,通过约亿级规模的精选预训练语料与数百万级任务精调(SFT)样本,成功构建出一套面向理解、生成与编辑三大核心任务的高效能多模态训练语料库。

这一构建体系产生的语料库不仅显著压缩了训练资源成本,更在模型泛化能力与任务迁移表现上展现出惊人的性价比,充分验证了小规模、精筛选、高质量数据对统一多模态模型训练的可行性与潜力。

奖励模型构建:数据质量驱动的智能评估体系

其次,为了确保 Skywork UniPic 在图像生成和编辑任务上的卓越表现,我们设计了专用于图像生成的Reward Model(Skywork-ImgReward)和专用于图片编辑的Reward Model (Skywork-EditReward)。

其中,Skywork-ImgReward是基于强化学习训练的Reward Model,相比于其他T2I Reward Model,Skywork-ImgReward在多个文生图场景下的偏好选择表现都更接近人类偏好。它不仅被用来作为文生图数据质量的筛选,也可以在后续被用于图像生成能力强化学习训练中的奖励信号,以及作为生成图像的质量评估指标。

同时面对图像编辑这一核心挑战,我们创新性地构建了具有针对性的Skywork-EditReward,其被用作数据质量评估时可以自动剔除超过30%的低质量编辑样本,在 GEditBench-EN 和 ImgEdit-Bench 基准测试中表现明显改善。后续同样也可以被用作图像编辑强化学习训练中的奖励信号,以及作为图像编辑的质量评估指标。

训练体系优化与策略提升

MAR训练优化体系:为提升模型表现,我们采用了两项关键优化策略:首先,在数据层面引入覆盖更广视觉场景和类别的亿级专有图像数据,显著拓展了模型的学习空间。其次,训练过程中采用渐进式分辨率提升策略,先在256×256分辨率下建立稳定的底层特征抽取能力,再逐步迁移至512×512,以增强模型的语义理解和细粒度建模能力。

HARMON训练优化体系:为进一步提升模型性能并兼顾训练效率,我们设计了多阶段分层分辨率训练机制。在第一阶段,模型在512×512分辨率下进行微调,聚焦基础特征提取的稳定性与收敛性。随后逐步提升输入分辨率至1024×1024,促使模型更好地捕捉纹理、边缘等高精度细节信息。

同时,我们采用分阶段参数解冻策略,逐步释放模型能力。在初始阶段,仅训练Projector模块以实现视觉与语言特征的对齐,冻结主干网络和LLM参数;接着在保持LLM编码器冻结的前提下优化视觉主干;最后进入全量解冻阶段,进行端到端联合优化,实现多模态协同增强。

渐进式多任务训练策略:为解决理解、生成和编辑三类任务难以兼得的问题,我们提出渐进式多任务训练机制。

训练初期,模型先专注于单一任务(如文本生成图像),待其收敛后再引入理解与编辑任务,按照由易到难的顺序逐步增加任务复杂度,避免多任务早期相互干扰。在精细化阶段,我们通过奖励模型筛选构建高质量训练数据,采用动态阈值与多样性采样策略,确保样本既具高置信度又具语义多样性。

整体来看,以上策略在训练过程中实现了结构合理的能力释放和任务适应,显著提升了模型在理解、生成和编辑等任务上的统一表现,达成真正意义上的“一专多能”。

过去半年,昆仑万维已经开源了多个SOTA大模型,涵盖奖励模型、推理、软件工程、多模态、空间智能等领域。今天,Skywork-UniPic 正式加入「Skywork」开源大家庭,让AI真正成为每个人触手可及的创意伙伴。

昆仑万维开源系列

更多 Skywork 系列开源模型,可在网站查看。

_Skywork UniPic开源!从零预训练打造生图、理解和编辑一体化模型_开源模型训练平台

相关文章

誉帆科技IPO:研发投入落后同行,主业毛利率下降令市场担忧

誉帆科技IPO:研发投入落后同行,主业毛利率下降令市场担忧

近日,上海誉帆环境科技股份有限公司(以下简称“誉帆科技”)在深交所IPO审核状态变更为“提交注册”。自公司IPO过会至今,时间已悄然走过近23个月。在这漫长的等待背后,誉帆科技存在诸多隐忧正受到监管与...

邀您申报!网易财经2025企业ESG优秀实践案例征集全面开启

邀您申报!网易财经2025企业ESG优秀实践案例征集全面开启

当人类文明站在碳中和与数字化转型的历史交汇点,2025年,可持续发展浪潮已澎湃成重塑世界格局的浩荡江河。从COP30气候大会敲定全球减排新框架,到中国 "双碳" 目标攻坚进入关键期,一系列顶层设计如...

东莞藏家“破产”:普洱茶”陈藏-升值”模式泡沫破裂

东莞藏家“破产”:普洱茶”陈藏-升值”模式泡沫破裂

东莞,这个位于珠江口的制造业名城,曾因普洱茶收藏创下多项纪录:巅峰时期30 万吨的藏茶量,按 357 克标准饼计算相当于 8.4 亿饼;1000 亿元的库存估值,超过云南省全年茶叶产业总产值的三分之二...

荔枝价格大跳水,“一天一个价”

荔枝价格大跳水,“一天一个价”

近日,荔枝开始降价了。 这两天,“五一”假期前上市的“妃子笑”开启了“平价模式”,批发价从每公斤120元降至70元,降幅约40%,批发市场内的日销量也从100余箱攀升至300多箱。 宁波果品批发市场...

谁比谁正宗?非医药基金“贴脸”医药,大赚64%!

谁比谁正宗?非医药基金“贴脸”医药,大赚64%!

非医药行业基金正以“贴脸”的方式看好医药赛道。 券商中国记者注意到,多只进入全市场业绩前列的非医药基金,所持有的医药股总仓位已高于许多医药行业基金。截至今年一季度末,医药股已成为公募第二大重仓行业,...

海南华铁子公司36.9亿元订单泡汤:神秘公司X身份未知,前实控人欲减持

海南华铁子公司36.9亿元订单泡汤:神秘公司X身份未知,前实控人欲减持

红星资本局10月2日消息 9月30日晚间,海南华铁(603300.SH)公告称,其子公司签订的近37亿元算力订单解除。 37亿元,相当于海南华铁全年营收的7成。当晚,上交所对海南华铁下发监管工作函,就...

发表评论    

◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。
客服微信:BT86616点击复制并跳转微信