You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
作者您好,有以下三个问题向您请教:
1.YAML文件中的max_sigma对应的就是IR-SDE文中的λ^2吗?想请教这个超参数是怎么确定的?以及我好像没有看到文中有相关的说明(如果有麻烦告诉一下,谢谢)
2.我将您的方法运用到其他非low-level的任务上(在成对数据集的segmentation refine任务),按照道理是可行的“In general, μ and the starting state x(0) can be set to any pair of different images.”。但实际训练中,网络很快收敛,但是validation指标并没有提升,疑似没有学到什么东西。请问对于这样的现象你有什么超参数修改的建议吗?是调整max_sigma,lr,T这些参数吗?
3.“All of our models are trained on an A100 GPU with 40GB memory for about 1.5 days (400 000 iterations), the same as for the CNN-baseline.”文中提到你们训练了400 000 iterations(实际上我在问题2中的实验下1kiterations就收敛了),想请问这么长的训练时间是在多大规模的数据集上进行的,感觉比一般的low-level训练算法时间都要长很多
谢谢!
The text was updated successfully, but these errors were encountered:
作者您好,有以下三个问题向您请教:
1.YAML文件中的max_sigma对应的就是IR-SDE文中的λ^2吗?想请教这个超参数是怎么确定的?以及我好像没有看到文中有相关的说明(如果有麻烦告诉一下,谢谢)
2.我将您的方法运用到其他非low-level的任务上(在成对数据集的segmentation refine任务),按照道理是可行的“In general, μ and the starting state x(0) can be set to any pair of different images.”。但实际训练中,网络很快收敛,但是validation指标并没有提升,疑似没有学到什么东西。请问对于这样的现象你有什么超参数修改的建议吗?是调整max_sigma,lr,T这些参数吗?
3.“All of our models are trained on an A100 GPU with 40GB memory for about 1.5 days (400 000 iterations), the same as for the CNN-baseline.”文中提到你们训练了400 000 iterations(实际上我在问题2中的实验下1kiterations就收敛了),想请问这么长的训练时间是在多大规模的数据集上进行的,感觉比一般的low-level训练算法时间都要长很多
谢谢!
The text was updated successfully, but these errors were encountered: