LeoSasion 发表于 2025-9-16 14:55:37

Kontext刚出的时候测试的


原图↑


flux-kontext-dev-nunchaku↑


flux-kontext-max↑

另外,fp8版本和pro版本也有尝试,同参数量之间没有明显差异。
总的来说还是max的理解能力最强,或者定制的kontext-dev+lora

gen 发表于 3 天前

现在的最好文生图模型推荐是啥啊

聪明的七仔 发表于 前天 15:12

现在生态基本都是千问的了

聪明的七仔 发表于 昨天 11:37

聪明的七仔 发表于 2025-10-27 15:12
现在生态基本都是千问的了

是的,不卷不行了,2.5开源都不知道什么时候了
页: [1]
查看完整版本: Kontext刚出的时候测试的