文字制作成图片软件(输入文字描述生成图片DALL·E Mini)

文字到图像的生成是目前热门的算法过程,OpenAI的Craiyon(以前的DALL-E mini)和Google的Imagen AI释放出了由人类和计算机想象力合成的奇妙怪异的程序生成艺术的浪潮。本周二,Meta透露,它也开发了一个AI图像生成引擎,它希望这将有助于在Metaverse中建立沉浸式的世界并创造出高级数字艺术。

在使用AI生成引擎时,仅凭“医院里有一匹马”这句话就创造出一个图像需要大量的工作。首先,这句话本身被送入一个转化器模型,这是一个神经网络,它可以解析句子中的单词并对它们之间的关系形成上下文理解。一旦得到用户描述的要点,AI将使用一组GAN(生成对抗网络)合成一个新的图像。

由于近年来努力在日益扩大的高清晰度图像集上训练ML模型并对文本描述进行精心策划,今天最先进的AI可以创造出逼真的图像–无论你给它们提供什么胡言乱语。不同的AI的具体创造过程是不同的。

Meta Make-A-Scene AI:能将人类与计算机的想象力融合为算法艺术

比如Google的Imagen使用扩散模型,它学会了将随机点的模式转换为图像。这些图像首先从低分辨率开始,然后逐步提高分辨率。”另一方面,Google的Parti AI,首先将一组图像转换为一连串的代码条目,类似于拼图片;然后将一个给定的文本提示翻译成这些代码条目并创建一个新的图像。

虽然这些系统可以创建向其描述的大多数东西,但用户对输出图像的具体方面没有任何控制。“为了实现AI推动创造性表达的潜力,”Meta CEO马克·扎克伯格在周二的博客中表示,“人们应该能塑造和控制系统生成的内容。”

该公司的“探索性AI研究概念”被称为Make-A-Scene,通过将用户创建的草图纳入其基于文本的图像生成输出一个2,048 x 2,048像素的图像。这种组合使用户不仅可以描述他们在图像中想要的东西,而且还可以决定图像的整体构成。扎克伯格表示:“它展示了人们如何使用文字和简单的图画来更具体地传达他们的愿景,并使用各种元素、形式、安排、深度、构图和结构。”

在测试中,一个人类评估小组压倒性地选择了文字加图画的图像,而不是仅有文字的图像,因为与原始草图更好地保持一致(99.54%的时间),与原始文字描述更好地保持一致的时间为66%。为了进一步发展这项技术,Meta跟包括Sofia Crespo、Scott Eaton、Alexander Reben和Refik Anadol在内的著名AI艺术家分享了其Make-A-Scene演示,他们将使用该系统并提供反馈。目前还没有关于该AI何时向公众开放的消息。

本文来自:落落,不代表聚客号立场!

如若转载,请注明出处:https://www.jukehao.com/133323.html

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件到xx1080@qq.com举报,一经查实,本站将立刻删除。