<?xml version="1.0" encoding="utf-8"?>
<rss version="2.0">
  <channel>
    <title>Monster社区 | ComfyUI论坛 | OpenClaw论坛 - Deep 换脸</title>
    <link>https://bbs.monster/forum-35-1.html</link>
    <description>Latest 20 threads of Deep 换脸</description>
    <copyright>Copyright(C) Monster社区 | ComfyUI论坛 | OpenClaw论坛</copyright>
    <generator>Discuz! Board by Comsenz Inc.</generator>
    <lastBuildDate>Fri, 01 May 2026 05:14:46 +0000</lastBuildDate>
    <ttl>60</ttl>
    <image>
      <url>https://bbs.monster/static/image/common/logo_88_31.gif</url>
      <title>Monster社区 | ComfyUI论坛 | OpenClaw论坛</title>
      <link>https://bbs.monster/</link>
    </image>
    <item>
      <title>三种设备的av1视频编码命令</title>
      <link>https://bbs.monster/thread-2849-1-1.html</link>
      <description><![CDATA[奇怪，正文 跑到5楼去了！ 没事，反正易混淆的信息太多了，大多是已经过时失效的了。原理倒是没错，只是已经编成预设无法手动了


视频编码推荐（svt 新版本已经不允许手动参数了，都给你预设好了）

ffmpeg -i input.mp4 -c:v libsvtav1 -preset 3 -crf 21 -g 300 -pi ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Mon, 12 Jan 2026 16:00:00 +0000</pubDate>
    </item>
    <item>
      <title>图片加密（隐写）学习日记</title>
      <link>https://bbs.monster/thread-2836-1-1.html</link>
      <description><![CDATA[(主题图不重要，但也算是给非专业人士看一眼结论，就不需要深究了）


写在前面：想具体了解原理的直接问AI吧，会比我总结的罗嗦的多，而且只有计算机逻辑，缺乏业务逻辑。
声明：开源精神，不拉踩，希望一起开拓思路和进步。只有闭源才需要对比说 谁比谁强。

好不容 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 07 Jan 2026 17:00:17 +0000</pubDate>
    </item>
    <item>
      <title>StyleGAN-XL/T：StyleGAN3的后续模型导读</title>
      <link>https://bbs.monster/thread-1270-1-1.html</link>
      <description><![CDATA[如果说 StyleGAN 1-2-3 是升级换代，那么从 StyleGAN3 到 StyleGAN-XL / StyleGAN-T 则是一次全面的进化。StyleGAN-XL 是基于 StyleGAN3 和 Projected GAN 的重大进化版本。这篇工作也是在图像生成 (非 text-to-image) 任务上超过了几个经典 diffusion model 的。StyleG ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 05 Nov 2025 03:42:32 +0000</pubDate>
    </item>
    <item>
      <title>避雷「GAN 万岁！」的 R3GAN</title>
      <link>https://bbs.monster/thread-1269-1-1.html</link>
      <description><![CDATA[最近一篇论文因其吸引眼球的标题而刷屏科技自媒体：\&quot;The GAN is dead; long live the GAN! A Modern Baseline GAN (GAN 已死？GAN 万岁！一个现代 GAN 基模)\&quot;。真正有价值的论文不必靠标题吸引人。果然没有做出特别大的创新。正文请前往知乎：高呼「GAN 万岁！」的 R3GA ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 05 Nov 2025 03:20:18 +0000</pubDate>
    </item>
    <item>
      <title>StyleGAN和Diffusion结合？PreciseControl：精确控制文本到图像生成</title>
      <link>https://bbs.monster/thread-1267-1-1.html</link>
      <description><![CDATA[之前给大家介绍过CycleGAN和Diffusion结合的一项优秀的工作，感兴趣的小伙伴可以点击以下链接阅读～

图像转换新风尚！当CycleGAN遇到Diffusion能擦出什么火花？CycleGAN-Turbo来了！

今天给大家介绍StyleGAN和Diffusion结合的一项工作PreciseControl，通过结合扩散模 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 05 Nov 2025 02:29:20 +0000</pubDate>
    </item>
    <item>
      <title>SOTA 模型盘点（二）WGAN、SAGAN、BIG-GAN、CSGAN、LOGAN、UNet-GAN、IC-GAN、ADC-GAN</title>
      <link>https://bbs.monster/thread-1264-1-1.html</link>
      <description><![CDATA[本专栏由机器之心SOTA！模型资源站出品，每周日于机器之心公众号持续更新。
 本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务，并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA！模型资源站（sota.jiqizhixin.com）即可获取本文中包含的模型实 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 05 Nov 2025 01:51:54 +0000</pubDate>
    </item>
    <item>
      <title>SOTA 模型盘点（一）ProGAN、StyleGAN、VDVAE、NCP-VAE、StyleGAN-xl、Diffusion GAN</title>
      <link>https://bbs.monster/thread-1262-1-1.html</link>
      <description><![CDATA[以下文章来源于机器之心SOTA模型 ，作者机器之心SOTA模型

本专栏将逐一盘点自然语言处理、计算机视觉等领域下的常见任务，并对在这些任务上取得过 SOTA 的经典模型逐一详解。前往 SOTA！模型资源站（sota.jiqizhixin.com）即可获取本文中包含的模型实现代码、预训练模 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 05 Nov 2025 01:34:54 +0000</pubDate>
    </item>
    <item>
      <title>DeepfaceLab：视频失效了</title>
      <link>https://bbs.monster/thread-863-1-1.html</link>
      <description><![CDATA[这个模型在皮肤质感上有了较大的提升，能较好的适应画面]]></description>
      <category>Deep 换脸</category>
      <author>开心</author>
      <pubDate>Thu, 30 Oct 2025 20:35:21 +0000</pubDate>
    </item>
    <item>
      <title>【神农MVE-DFL汉化】v3.1.0</title>
      <link>https://bbs.monster/thread-692-1-1.html</link>
      <description><![CDATA[GitHub - LeoSasion/DeepFaceLabSN

最新夸克网盘：https://pan.quark.cn/s/e1a677c7d8a7

2025年10月28日：

总结：DFL 成也nsfw，败也nsfw，
真实度已经比不上扩散模型，但速度、不闪烁、稀缺角度 这些优势仍在。
等我解决温饱问题可能写下一个大版本：
数据集压缩、 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Mon, 27 Oct 2025 19:25:13 +0000</pubDate>
    </item>
    <item>
      <title>FaceCLIP：专攻人脸识别的新模型</title>
      <link>https://bbs.monster/thread-336-1-1.html</link>
      <description><![CDATA[字节跳动刚刚在Hugging Face上发布了FaceCLIP！]]></description>
      <category>Deep 换脸</category>
      <author>colour</author>
      <pubDate>Mon, 13 Oct 2025 23:00:34 +0000</pubDate>
    </item>
    <item>
      <title>【DFL学习日记#3】S3FDExtractor.py 检测人脸边界框</title>
      <link>https://bbs.monster/thread-210-1-1.html</link>
      <description><![CDATA[【学习日记】Extract 切脸 - Deep 换脸 - BBS_Monster
Extractor.py 包含了本文的S3FD（边界框）和FANExtractor（关键点）
本文只讲S3FD]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Fri, 03 Oct 2025 03:49:54 +0000</pubDate>
    </item>
    <item>
      <title>【DFL学习日记#1】DeepfaceLab入口文件main.py整体注释</title>
      <link>https://bbs.monster/thread-208-1-1.html</link>
      <description><![CDATA[parser规则理解：



举例说明 ：

- 当用户运行 python main.py extract --input-dir images --output-dir faces
- parser.parse_args() 会解析出子命令是 \&quot;extract\&quot;，并获取 input-dir 和 output-dir 的值
- arguments 对象将包含 arguments.func = process_extract  ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Thu, 02 Oct 2025 16:24:54 +0000</pubDate>
    </item>
    <item>
      <title>【DFL学习日记#2】Extractor.py 切脸工作流</title>
      <link>https://bbs.monster/thread-207-1-1.html</link>
      <description><![CDATA[首先，bat文件向main.py传递参数。
bat内容：经过：【学习日记】DeepfaceLab入口文件main.py整体注释 - Deep 换脸 - BBS_Monster
执行：mainscripts\\Extractor.py
代码比较多，我上传py文件到本帖

Extractor.py 最终输出的是图片文件，具体来说：

1. 1.
   输出为包含 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Thu, 02 Oct 2025 16:14:54 +0000</pubDate>
    </item>
    <item>
      <title>【DFL学习日记#4】从landmarks到aligned，坐标与仿射变换矩阵，完全解读</title>
      <link>https://bbs.monster/thread-205-1-1.html</link>
      <description><![CDATA[上图是官方在项目里提供的示意图。下面我根据索引号对应又画了一版：

当使用 tuple(start, stop) 形式定义范围并通过 slice(*tuple) 创建切片时，遵循的是左闭右开区间原则。

landmarks_68_pt = { \&quot;mouth\&quot;: (48,68),
                    \&quot;right_eyebrow\&quot;: (17, 22), ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 01 Oct 2025 17:38:36 +0000</pubDate>
    </item>
    <item>
      <title>关于预处理的人脸对齐的68关键点landmarks的意义</title>
      <link>https://bbs.monster/thread-204-1-1.html</link>
      <description><![CDATA[前言
insightface、Dlib、2DFAN（选其一）
但对于换脸的成败具有一票否决权。



现象：
1.遮挡物扫过鼻子的时候，换脸闪烁。
2.大角度哪怕你训练的数据和训练预览到位了，但是换脸阶段没有正确切脸与对齐，也是无法贴换上去的。





在能够基本正确识别的情况下，用 ...]]></description>
      <category>Deep 换脸</category>
      <author>LeoSasion</author>
      <pubDate>Wed, 01 Oct 2025 17:07:25 +0000</pubDate>
    </item>
    <item>
      <title>416DF-UDT模型</title>
      <link>https://bbs.monster/thread-151-1-1.html</link>
      <description><![CDATA[416DF-UDT这个模型在色彩不复杂，亮度足够的条件下，直接合成的效果非常好，半脸效果也非常不错，]]></description>
      <category>Deep 换脸</category>
      <author>开心</author>
      <pubDate>Thu, 25 Sep 2025 19:35:30 +0000</pubDate>
    </item>
  </channel>
</rss>