大家好,我是 Jack。
最近,A算法又有了一些新作,今天继续给大家讲解两个算法。
我的老读者朋友们,应该对于DALL·E不陌生,去年算法刚出的时候,就给大家讲解过。
还写了一篇Transformer的原理讲解:
最近,DALL·E迎来升级,DALL·E 2诞生了!
DALL·E 2
DALL·E 2 依然是可以根据自然语言文字描述直接生成对应图片,同时增加了图片的编辑功能。
Text2Image
比如输入:
Ive always wanted to be a cool panda riding a skateboard in Santa Monica.
注:我一直想成为在圣莫尼卡的骑滑板的酷熊猫。
DALL·E 2 输出结果。
可以看出,相比于第一代,DALL·E 2 的结果更精致。
A kid and a dog staring at the stars
注:席地而坐看星空的小孩和小狗。
并且,该算法生成的图像可不止一张(官网示例给出 10 张)。
An astronaut riding a horse in a photorealistic style.
注:照片风格的图片,一名骑着马的宇航员。
你可以根据自己的喜好,选择一张自己最喜欢的。
你也可以通过描述,对图片的风格,进行调整。
An astronaut riding a horse as a pencil drawing.
注:铅笔画风格的图片,一名骑着马的宇航员。
Image Edit
除了这种,根据文字生成图片的功能,DALL·E 2 还可以使用文字,对图像进行编辑,增添、修改、删除一些图片中的元素,同时不忘了考虑阴影、反射、纹理等问题。
比如可以修改图片中,柯基犬的样子和位置,画作风格和真实图片风格也可以自由切换。
Artistic creation
DALL·E 2 还有一个比较好玩的功能是艺术创作。
根据已有艺术画作的风格,创作类似风格的艺术作品。
AI 艺术家来了!
目前,DALL·E 2 的论文已经发出,但代码暂未开源。
论文地址:
https://cdn.openai.com/papers/dall-e-2.pdf
不过可以在线体验试玩,采用的邀请制,需要OpenAI团队审批通过之后才能体验。
体验地址:
https://labs.openai.com/waitlist
这里也有一些官方的介绍,可以体验:
DALL·E 2 可以生成更逼真、分辨率更高的图片,生成的图片可以达到 1024* 1024 的分辨率。
我是非常期待看看代码的!
同样感兴趣的,可以跟我一起追更,等我写文~
Bringing-Old-Films-Back-to-Life
2020 年的时候我讲解过一个修复老照片的算法:
「Bringing Old Photo Back to Life」
可以为旧的照片修复褶皱,并上色。
20年的这个算法已开源,当时很多小伙伴都跑过这个有趣的算法。
今天再介绍一个,功能如其名的算法:
「Bringing Old Films Back to Life」
专门针对老影片的修复算法。
该算法采用的是一种循环 Transformer 网络,通过利用 RNN 的时间建模和 Transformer 的空间建模来解决老电影的混合退化问题,还很好地解决了视频上色问题,性能优于 DeOldify 等网络。
算法即将开源,可以期待一下。
项目地址:
https://github.com/raywzy/Bringing-Old-Films-Back-to-Life
总结
今天介绍的两个算法,算是做了个小预告,后面都开源了,有时间再详细讲解。DALL·E 2有网页版的体验地址,可以试着注册下,通过申请就能体验了。
就聊这么多,我是爱技术爱分享的 Jack,我们下期见!