AI绘图模型不会写字的难题,被阿里破解了
支持中英日韩四种语言
克雷西 发自 凹非寺
量子位 | 公众号 QbitAI
能准确写汉字的AI绘图工具,终于登场了!
包括中文在内一共支持四种语言,而且还能文字的位置还能任意指定。
从此,人们终于可以和AI绘图模型的“鬼画符”说再见了。
这款名为AnyText的绘图工具来自阿里巴巴,可以按照指定位置精准地向图中加入文字。
此前的绘图模型普遍无法准确地向图中添加文字,即便有也很难支持像中文这样结构复杂的文字。
而目前Anytext支持中英日韩四种语言,不仅字形准确,风格也可以与图片完美融合。
除了可以在绘制时加入文字,修改图片中已有的文字,甚至向其中加字也都不是问题。
究竟AnyText效果如何,我们也实际体验了一番。
各种风格轻松驾驭
官方在GitHub文档中提供了AnyText的部署教程,也可以在魔搭社区中体验。
此外还有网友制作了PyTorch笔记,可以在本地或Colab中一键部署,我们采用的也是这种方式。
AnyText支持中英文Prompt,不过从程序日志来看,中文提示词会被自动翻译成英文。
比如我们想让AnyText给马斯克换上一件白色T恤,让他来给量子位(QbitAI)打个call。
只需要输入提示词,然后设定文本的位置,然后直接运行就可以了。
如果需要调整尺寸等参数,可以将上方的菜单展开;如果不会操作,页面中还附有中英双语教程。
最终,在搭载V100的Colab上,AnyText用了10多秒绘制出了四张图片。
效果还是不错的,不论是图本身还是文字,看上去都没有什么破绽。
而且各种文字材质AnyText都能准确模仿,比如黑板上的粉笔字,甚至是传统书法……
街景中的文字,甚至是电商促销海报,都难不倒AnyText。
而且不仅是平面上各式各样的文字,立体风格同样也不在话下。
而其中的文本编辑功能,还可以修改已有图片中的文字,几乎不会留下破绽。
在测试当中,AnyText也是取得了不错的成绩——无论是中英文,准确度都显著高于ControlNet,FID误差也大幅减少。
此外,如果自行部署,还可以对字体进行自定义,只需准备好字体文件并对代码简单修改就可以了。
那么,研究人员是怎样让AnyText学会写字的呢?
文本渲染独立完成
AnyText是基于扩散模型开发的,主要分为两个模块,文字生成的过程是相对独立的。
这两个模块分别是隐空间辅助模块和文本嵌入模块。
其中,辅助模块对字形、文字位置和掩码这三种信息进行编码并构建隐空间特征图像,用来辅助视觉文字的生成;
文本嵌入模块则将描述词中的语义部分与待生成文本部分解耦,使用图像编码模块单独提取字形信息后,再与语义信息做融合。
在实际工作过程中,嵌入的文本输送给绘图模块时被用星号代替,在嵌入空间预留位置并用符号填充。
然后文本嵌入模块得到的字形图像被输入预训练OCR模型,提取出字形特征,然后调整其维度并替换预留位置中的符号,得到新的序列。
最后,这个序列表示被输入到CLIP的文本编码器中,形成最终指导图像生成的指令。
这种“分而治之”的方式,既有助于文字的书写精度,也有利于提升文字与背景的一致性。
此外,AnyText还支持嵌入其他扩散模型,为之提供文本生成支持。
论文地址:
https://arxiv.org/abs/2311.03054
GitHub:
https://github.com/tyxsspa/AnyText
魔搭社区:
https://modelscope.cn/models/damo/cv_anytext_text_generation_editing/summary
笔记:
https://colab.research.google.com/github/camenduru/AnyText-colab/blob/main/AnyText_colab.ipynb
- 英伟达团队机器训练新方法!仅5次演示让机器生成1000个新demo,李飞飞高徒与徒孙联手出品2024-11-05
- 3B模型打通机器人任督二脉!冲咖啡叠衣服都能干,7种形态适配,OpenAI也投了2024-11-02
- 2mm芯片植入视网膜,盲人重获阅读能力还能打牌,马斯克老部下创业成果来了2024-11-02
- 4499元起,一加“十三香”来了:戴手套依然能触控,北京骑行导航到天津无需充电2024-10-31