We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
転移学習における事前学習と転移先のタスクの相性を解析・可視化し,最適な組み合わせを求める手法を提案.
Source→Targetという2つのタスク間の転移学習を想定.1つの画像に対してタスクごとに異なる教師データを持つデータセットを用意しておく.
多くのSourceタスクを解いたモデルとTargetタスク解決の際に入力するSourceモデルからの特徴量のバリエーションを増やせば性能がよくなるが,実際にはSourceタスクを学習するためのコスト(計算量,データセット作成の手間)がかかる.そのため本論文ではBudget=Sourceタスクの数,と定義し,Budgetと転移学習後の性能のトレードオフ関係を考慮している.
方法
結果
Budgetを最大(全タスクをSourceとして考慮)にしても,Validationデータでスクラッチから学習するよりも良い結果を出し,かつTraining dataでスクラッチの場合と近い精度を出すタスク組み合わせが得られた.
The text was updated successfully, but these errors were encountered:
CVPR2018 Best Paper
Sorry, something went wrong.
No branches or pull requests
転移学習における事前学習と転移先のタスクの相性を解析・可視化し,最適な組み合わせを求める手法を提案.
論文本体・著者
解きたい問題
新規性
実装
Source→Targetという2つのタスク間の転移学習を想定.1つの画像に対してタスクごとに異なる教師データを持つデータセットを用意しておく.
多くのSourceタスクを解いたモデルとTargetタスク解決の際に入力するSourceモデルからの特徴量のバリエーションを増やせば性能がよくなるが,実際にはSourceタスクを学習するためのコスト(計算量,データセット作成の手間)がかかる.そのため本論文ではBudget=Sourceタスクの数,と定義し,Budgetと転移学習後の性能のトレードオフ関係を考慮している.
実験・議論
方法
結果
Budgetを最大(全タスクをSourceとして考慮)にしても,Validationデータでスクラッチから学習するよりも良い結果を出し,かつTraining dataでスクラッチの場合と近い精度を出すタスク組み合わせが得られた.
読んだ中での不明点などの感想
関連論文
The text was updated successfully, but these errors were encountered: