自己拿大模型跑跑生产力就知道了,ai画长篇漫画现阶段根本不可行,首先最大的瓶颈就是上下文长度限制,单是要装下模型和100k tokens的上下文都要100g的显存往上,就算你拿统一内存的mac跑,mac那墨迹的思考速度预处理这些数据得半小时起步,期间你还得重复这个步骤不断和模型交互修正ai的结果,当然用rag技术创建本地数据库或者微调大模型可以缩短这个时间,但是这样的话试错成本就太高了,有这个时间和技术不如干点别的。唯一的使用场景就是完全不要上下文,放弃逻辑,这就是为什么你在网上看到的ai漫画像是每张图分别外包给不同的人画最后直接拼在一起一样。