ai画漫画又有新的可控技术了

AI画漫画
主要痛点有两个:
一是如何保持不同画面中人物的一致性,
二是如何对一些动作变化如何快速生成

对于一,之前已经有了一些方案如基于mask的图生图,现在又有了新方案:reference-only,详见:https://zhuanlan.zhihu.com/p/629466441
对于二,现在有了一个跟stable diffusion完全异构的方案DragGAN
详见:https://zhuanlan.zhihu.com/p/609828893
把这两个方案结合起来,就可以实现同一人物不同姿态不同场景的各种变化,真正实现定制模特!

但别高兴得太早,即使有了合二为一得工具,想得到一张精细的漫画扉页也不是那么简单。
下面这个工作流详解是一个很好的利用现阶段AI工具做插画的实用案例。由于Stable Diffusion等AI绘图工具,目前还对画面有精确要求的时候,使用单一的img2img不能生成令人满意的效果。所以本工作流的核心在于,每一个环节只让AI做一件事,提升AI对指令的精确理解。此外,这个工作流与传统绘画中“从整体到局部”的流程相似,对于习惯于手绘的画师比较友好。整个过程90%完全由创作者掌控,先绘制背景,人物,然后逐渐添加细节。通过图像生成、图像融合、添加细节和放大的工作,很好地实现了整体效果
https://aigarlic.fanbox.cc/posts/5928584

现阶段专业绘图画师受到AI绘画冲击很大。如何将AI绘画作为画师的一种新技能为创作服务,是很多创作者思考的主题。要实现精准可控的内容生成,依然需要创作者作为主体,作为管理者,去协调AI完成各自的部分并组合起来。AI绘画确实极大降低了绘画门槛,那么新的创作门槛变成了审美能力的表达,以及作为管理者的统筹协调能力。