前几天吧里还有人发过关于Nunchaku (SVDQuant) 的帖子,但是当时的版本局限性很大,但是前两天出了0.2.0版本后发生了质的变化。
新版本可以直接用原版flux lora不用转化了,支持加载多个lora,支持controlnet,支持redux,兼容20系显卡,这次更新可谓是把“鸡肋”变成了“牛肋排”。要知道GGUF虽然降低了硬件需求但是速度并没有什么提升,但是Nunchaku的速度却是翻倍的,并且画质损失微乎其微。
12g显存,原版fulx fp8轻松占用97%,Nunchaku的占用只有70%,速度还翻了不止一倍。

并且插件自带First-Block Cache,开启后速度再次大幅提升。

新版本可以直接用原版flux lora不用转化了,支持加载多个lora,支持controlnet,支持redux,兼容20系显卡,这次更新可谓是把“鸡肋”变成了“牛肋排”。要知道GGUF虽然降低了硬件需求但是速度并没有什么提升,但是Nunchaku的速度却是翻倍的,并且画质损失微乎其微。
12g显存,原版fulx fp8轻松占用97%,Nunchaku的占用只有70%,速度还翻了不止一倍。

并且插件自带First-Block Cache,开启后速度再次大幅提升。
