Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于迁移到别的任务上的提问 #101

Open
EricShenYuQi opened this issue Sep 7, 2024 · 1 comment
Open

关于迁移到别的任务上的提问 #101

EricShenYuQi opened this issue Sep 7, 2024 · 1 comment

Comments

@EricShenYuQi
Copy link

作者您好,有以下三个问题向您请教:
1.YAML文件中的max_sigma对应的就是IR-SDE文中的λ^2吗?想请教这个超参数是怎么确定的?以及我好像没有看到文中有相关的说明(如果有麻烦告诉一下,谢谢)
2.我将您的方法运用到其他非low-level的任务上(在成对数据集的segmentation refine任务),按照道理是可行的“In general, μ and the starting state x(0) can be set to any pair of different images.”。但实际训练中,网络很快收敛,但是validation指标并没有提升,疑似没有学到什么东西。请问对于这样的现象你有什么超参数修改的建议吗?是调整max_sigma,lr,T这些参数吗?
3.“All of our models are trained on an A100 GPU with 40GB memory for about 1.5 days (400 000 iterations), the same as for the CNN-baseline.”文中提到你们训练了400 000 iterations(实际上我在问题2中的实验下1kiterations就收敛了),想请问这么长的训练时间是在多大规模的数据集上进行的,感觉比一般的low-level训练算法时间都要长很多
谢谢!

@Algolzw
Copy link
Owner

Algolzw commented Sep 9, 2024

你好。
1)是的,这个超参在IR-SDE中设置为10,而在后来Refusion文章中发现设置为30或者50效果更好。IR-SDE的appendix和Refusion实验中都有说明。
2)在我经验中diffusion网络收敛快只代表很快学到了噪声,但更细节的学习需要更长的时间(即使loss看起来已经很平滑了,但图像质量依然会提升)。
3)low-level像超分啊,降噪啊之类的任务,一般都是40万-60万个迭代,这里我们参考的是SwinIR的设置。我们实验也发现多训练图像质量确实会有提高。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants