查看: 760|回复: 5

训练初期,关闭遮罩,有道理吗?

[复制链接]

2342

积分

166

帖子

573

符石

化神丹师

Rank: 5

积分
2342
发表于 2025-11-11 18:46:34 | 显示全部楼层 |阅读模式
Zhatv换脸论坛免责声明
本站出售,详询五折
发帖前请确认已阅读论坛总则及本版版规 Zhatv换脸论坛总规则
本帖最后由 ntremok 于 2025-11-11 18:49 编辑


豆包、千问、ChatGPT都是建议在6-8万前关闭遮罩训练

(Gemini、Grok的意见不一样)

6-8万前,使用无遮挡的dst,关闭masked training,说是让模型学习全脸特征,避免遮罩干扰,
6-8万之后,加入有遮挡的dst之后,再开启masked training,让模型学会 “区分遮挡物与人脸区域”

360截图20251111181815945.png
360截图20251111182623658.png
360截图20251111182404985.png
360截图20251111182036956.png


以上的说法有道理吗?
(这个只是dst有遮时候,的训练方法,如果无遮挡可能有不一样)

Zhatv换脸论坛免责声明
全站默认解压密码:zhatv.cn
【Zhatv】论坛里的文章仅代表作者本人的观点,与本网站立场无关。
所有文章、内容、信息、资料,都不保证其准确性、完整性、有效性、时效性,请依据情况自身做出判断。
因阅读本站内容而被误导等其他因素所造成的损失责任自负,【Zhatv】不承担任何责任。

1万

积分

236

帖子

251

符石

玉皇大帝

Rank: 16Rank: 16Rank: 16Rank: 16

积分
19788

隐藏大神突出贡献论坛元老咸鱼勋章

发表于 2025-11-12 22:20:34 | 显示全部楼层
是有一定的道理,最好连已经应用上的遮罩都卸掉,让地标与背景都训练,使之边界平滑过渡,训练到一定迭代,再写入应用遮罩,训练遮罩内的范围为主。

评分

参与人数 1金钱 +1 收起 理由
ntremok + 1 助人为乐!

查看全部评分

回复

使用道具 举报

2342

积分

166

帖子

573

符石

化神丹师

Rank: 5

积分
2342
 楼主| 发表于 2025-11-12 23:48:26 | 显示全部楼层
独孤求败 发表于 2025-11-12 22:20
是有一定的道理,最好连已经应用上的遮罩都卸掉,让地标与背景都训练,使之边界平滑过渡,训练到一定迭代, ...

好的。感谢分享
要练到瑕疵少一点,似乎需要注意很多方面
回复

使用道具 举报

682

积分

28

帖子

365

符石

元婴丹师

Rank: 4Rank: 4Rank: 4Rank: 4

积分
682
发表于 2025-12-21 10:27:25 | 显示全部楼层
独孤求败 发表于 2025-11-12 22:20
是有一定的道理,最好连已经应用上的遮罩都卸掉,让地标与背景都训练,使之边界平滑过渡,训练到一定迭代, ...

大佬,预训练阶段有没有必要打开pretrain?我看有些人是不开pretrain直接src-src训练的
回复

使用道具 举报

1万

积分

236

帖子

251

符石

玉皇大帝

Rank: 16Rank: 16Rank: 16Rank: 16

积分
19788

隐藏大神突出贡献论坛元老咸鱼勋章

发表于 2025-12-21 13:15:18 | 显示全部楼层
benz 发表于 2025-12-21 10:27
大佬,预训练阶段有没有必要打开pretrain?我看有些人是不开pretrain直接src-src训练的 ...

pretrain就是预训练,你可以找现成他人训练好的模型,直接用上,自己预训练是挺麻烦的
我自己是没有过预训练,直接就开干,效果也挺好的
回复

使用道具 举报

682

积分

28

帖子

365

符石

元婴丹师

Rank: 4Rank: 4Rank: 4Rank: 4

积分
682
发表于 2025-12-21 13:38:43 | 显示全部楼层
独孤求败 发表于 2025-12-21 13:15
pretrain就是预训练,你可以找现成他人训练好的模型,直接用上,自己预训练是挺麻烦的
我自己是没有过预 ...

大佬,我之前都是复用别人的模型的,现在想试试自己预训练一个模型看看效果。看到有些人说的可以用src-src来替代预训练阶段。我看过关于预训练的那部分代码,是强制关闭了扭曲、学习率和各种power。那么是否存在关闭了扭曲、学习率和各种power之后的src-src对练来替代预训练阶段?但是有些人说预训练阶段的训练效果是冻结在encoder.npy和decoder.npy而不是跟正训一样在inter_AB.npy,所以需要预训练。
请问大佬,这两种说法哪个正确?我懂得不多
[发帖际遇]: benz 偷丞相的丹被发现 金钱 降了 3 . 幸运榜 / 衰神榜
回复

使用道具 举报

小黑屋|ZhaTV ( 滇ICP备15003127号-4 ) |网站地图

GMT+8, 2025-12-30 00:39

Powered by Zhatv.cn

© 2022-2023

快速回复 返回顶部 返回列表