当前位置:湖南科技在线 >> 科技 >> 文章正文

这个AI“高手”的简笔画水平让网友惊艳:我连GAN都不需要

发布于:2020-12-19 被浏览:2830次

雷锦来自奥菲寺

量子报告| QbitAI,微信官方账号

AI可以画简笔画到什么水平?

给一张美国演员拉米马雷克的照片,效果是这样的。

和原图很接近吗?

我们来看一张合影输入《老友记》的效果。

虽然人物很多,但是简笔画效果还是可以区分剧中人物的。

头发特别厚的人被拍照,AI还能撑吗?

妹子“爆炸头”的边毛,算是完美还原。

更近的呢?看看“泰勒斯威夫特”照片的效果。

可以说是相当细致,充分发挥了头发的层次感和光感以及衣服的褶皱。

……

这些是一个叫做艺术线的人工智能的作品。

而且在Reddit上很受欢迎,已经到了1100的热度。

你觉得GAN负责这么生动的效果吗?

不对!

ArtLine根本不用GAN:

正因为如此,ArtLine的效果真的是让网友叹为观止。

那么,它是如何做到的呢?

艺术线背后的三大法宝

艺术线的作者非常愉快地分享了它背后的三项技术:

自我关注

渐进调整大小

发电机损耗

接下来,我们来逐一看看每项技术背后的细节。

《自我关注》部分引用的技术来自GAN之父lan Goodfellow两年前提出的研究。

等等,你刚才不是说“不用GAN”吗?

作者对此的解释是:

没多大区别。

在本研究中,注意机制被添加到GAN生成中,并且SNgan的思想被引入到生成器中。

解决传统GAN中存在的一些问题,如:

使用小卷积核很难在图像中找到相关性

使用大的卷积核会损失卷积网络参数和计算的效率

研究中的核心自我注意机制如下图所示。

其中f(x)、g(x)、h(x)都是普通的1x1卷积,唯一的区别在于输出通道大小不同。

然后f(x)的输出进行转置,乘以g(x)的输出,再用softmax归一化,得到一个注意力图。

自适应注意力特征图是通过将注意力图与h(x)像素相乘而获得的。

从结果来看,在FID和is绩效指标下引入自我关注机制的效果确实更好。

ArtLine涉及的第二个技术灵感来自英伟达在2018年进行的一项研究。

本研究主要提出一种新的神经网络训练方法。

核心思想是逐步训练发生器和鉴别器:从低分辨率开始,随着训练过程的进行,逐渐加入新的层来细化细节。

这种方法不仅加快了训练速度,而且更加稳定,可以产生高质量的图像。

ArtLine涉及的最后一项技术是斯坦福大学李菲菲团队在2016年提出的研究。

本研究主要解决风格转换的耗时问题。

风格转换主要使用以上的网络模型,分为左侧的图像转换网络和右侧的损耗网络两部分。

其超分辨率重建也采用上述网络模型,但具体内部图像转换网络部分略有不同。

相比之前的研究,这个网络的效果已经达到了相当的水平,但是速度却提高了100倍,达到了三个数量级。

关于作者

艺术线项目的作者是维吉什马德哈万。

在GitHub中,他承认自己不是程序员,也指出了目前ArtLine的一些缺陷,比如在处理像素小于500px的图像时,效果并不理想。

现在,ArtLine可以在线玩了!

标签: 效果 卷积 网络