Stable Diffusion 3惊艳发布:采用Sora同架构,图像生成更逼真

作者:量子位

IMG_256

足足酝酿一年之多,相比上一代一共进化了三大能力

来,直接上效果!

首先,是开挂的文字渲染能力

且看这黑板上的粉笔字:

Go Big or Go Home(不成功便成仁),这个倒是杀气腾腾啊~

IMG_257
路牌、公交灯牌的霓虹效果:
IMG_258
还有刺绣上“勾”得快要看到针脚的“晚安”:
IMG_259
作品一摆出,网友就大呼:太精确了
IMG_260
以至于有人表示:赶紧把中文也安排上啊
IMG_261

其次,多主题提示能力直接拉满。

什么意思?你尽管一次性往提示词中塞入n多“元素”,Stable Diffusion 3:漏一个算我输。

呐,仔细瞅下图,这里面就有“宇航员”、“穿着芭蕾舞裙的小猪”、“粉色雨伞”、“戴着礼帽的知更鸟”,角落里还有“Stable Diffusion”几个大字(可不是什么水印)。

IMG_262

有了这个能力,一幅作品你想多丰富就有多丰富。

最后,当属图像质量,再次进化了一个度。

光看前面这些图,就被冲击到有没有?!

而各种超清特写,那是再信手拈来不过的了。

IMG_263

心动吗?目前官方已开放排队名单,大伙可以前往官网申请。

咳咳,也不得不说,最近这AI圈可真是相当热闹啊。

有网友直呼,我的电脑已经Hold不住了……

IMG_264

Stable Diffusion 3来了!

全新的Stable Diffusion效果有多好,再给大伙奉送一些。

当然,所有出图均来自官方,比如StabilityAI媒体负责人:

IMG_265
IMG_266
不得不说,文字效果实在最为吸人眼球,各种形式都能呈现得相当清楚和“应景”。
IMG_267

而看到上面这幅图,不得不想到“Midjourney尴尬亮相学术界:为生物学论文乱配图”一事——有了SD3之后,我们是不是可以制作非常专业的学术配图了?

除了这些,SD3的“酒精水墨画”也相当别出心裁:

IMG_268

动漫风格:

again,你可以在上面加清晰的文字了。

IMG_269

由于目前需要排队申请,大伙还不好实际测试摸底。

不过有机智的网友已经用相同的提示词喂给了Midjourney(v 6.0)。

比如开头的那张“红苹果与黑板字”(prompt:cinematic photo of a red apple on a table in a classroom, on the blackboard are the words “go big or go home” written in chalk)

最终Midjourney给出的结果如下:

IMG_270
IMG_271

从这组对比来看,可以说是高下立判——SD3无论是文字拼写还是质量、色彩协调性等方面都更胜一筹。

技术方面,目前,模型可选择的参数范围在800M到8B。

详细的技术报告还未公布,官方目前只透露主要结合了扩散型transformer架构以及flow matching

前者实际上同Sora一样,附上的技术论文正是22年William Peebles同谢赛宁合写的DiT。

IMG_272

DiT首次将Transformer与扩散模型结合到了一起,相关论文被ICCV 2023录用为Oral论文。

在该研究中,研究者训练了潜在扩散模型,用对潜在 patch进行操作的 Transformer 替换常用的 U-Net 主干网络。他们通过以Gflops衡量的前向传递复杂度来分析扩散 Transformer (DiT) 的可扩展性。

而后者flow matching同样也是来自22年,由Meta AI以及魏茨曼科学研究所的科学家完成。

IMG_273

他们提出了基于连续归一化流(CNFs)的生成模型新范式,以及flow matching的概念,这是一种基于回归固定条件概率路径的矢量场的免模拟CNFs的方法。结果发现使用带有扩散路径的flow matching,可以训练出来的模型更稳健和稳定。

不过最近看了这么多视频生成进展,也有网友表示:

IMG_274

你觉得呢?

One More Thing

除此之外,也就在前一天,他们的视频产品Stable Video正式开放公测。

基于SVD1.1(Stable Video Diffusion 1.1),人人可用。

主要支持文生视频和图生视频两个功能。

IMG_275

© 版权声明
THE END
喜欢就支持一下吧
点赞13 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容