論文の概要: Composite Learning for Robust and Effective Dense Predictions
- arxiv url: http://arxiv.org/abs/2210.07239v1
- Date: Thu, 13 Oct 2022 17:59:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 16:44:44.500938
- Title: Composite Learning for Robust and Effective Dense Predictions
- Title(参考訳): ロバスト・高密度予測のための複合学習
- Authors: Menelaos Kanakis, Thomas E. Huang, David Bruggemann, Fisher Yu, Luc
Van Gool
- Abstract要約: マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
自己監督型(補助的)タスクと密接な予測(目標)タスクを共同でトレーニングすることで、目標タスクの性能を継続的に向上し、補助タスクのラベル付けの必要性を排除できることが判明した。
- 参考スコア(独自算出の注目度): 81.2055761433725
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Multi-task learning promises better model generalization on a target task by
jointly optimizing it with an auxiliary task. However, the current practice
requires additional labeling efforts for the auxiliary task, while not
guaranteeing better model performance. In this paper, we find that jointly
training a dense prediction (target) task with a self-supervised (auxiliary)
task can consistently improve the performance of the target task, while
eliminating the need for labeling auxiliary tasks. We refer to this joint
training as Composite Learning (CompL). Experiments of CompL on monocular depth
estimation, semantic segmentation, and boundary detection show consistent
performance improvements in fully and partially labeled datasets. Further
analysis on depth estimation reveals that joint training with self-supervision
outperforms most labeled auxiliary tasks. We also find that CompL can improve
model robustness when the models are evaluated in new domains. These results
demonstrate the benefits of self-supervision as an auxiliary task, and
establish the design of novel task-specific self-supervised methods as a new
axis of investigation for future multi-task learning research.
- Abstract(参考訳): マルチタスク学習は、目標タスクを補助タスクと協調的に最適化することで、より優れたモデル一般化を約束する。
しかし、現在のプラクティスでは、モデルパフォーマンスが向上する保証はないが、補助タスクに追加のラベル付け作業が必要である。
本稿では,自己教師付き(副次的)タスクと密接な予測(ターゲット)タスクを共同で訓練することで,補助タスクのラベル付けを不要にしつつ,目標タスクのパフォーマンスを一貫して改善できることを示す。
このジョイントトレーニングをコンポジットラーニング(CompL)と呼ぶ。
CompLによる単眼深度推定、セマンティックセグメンテーション、境界検出実験は、完全および部分的にラベル付けされたデータセットにおいて一貫した性能改善を示す。
深度推定のさらなる分析により、自己超越との共同訓練は、ほとんどのラベル付き補助作業より優れていることが明らかになった。
また、モデルが新しいドメインで評価されると、CompLはモデルロバスト性を改善することができる。
これらの結果は、補助課題としての自己監督の利点を示し、将来のマルチタスク学習研究の新たな軸として、新しいタスク固有の自己監督手法の設計を確立する。
関連論文リスト
- Functional Knowledge Transfer with Self-supervised Representation
Learning [11.566644244783305]
本研究では,機能的知識伝達の方向における自己指導型表現学習の未探索ユーザビリティについて検討する。
本研究では,自己教師型学習課題と教師型学習課題の協調最適化により,機能的知識伝達を実現する。
論文 参考訳(メタデータ) (2023-03-12T21:14:59Z) - ForkMerge: Mitigating Negative Transfer in Auxiliary-Task Learning [59.08197876733052]
補助タスク学習(ATL)は、関連するタスクから得られる知識を活用することにより、目標タスクの性能を向上させることを目的としている。
複数のタスクを同時に学習すると、ターゲットタスクのみを学習するよりも精度が低下することがある。
ForkMergeは、モデルを定期的に複数のブランチにフォークし、タスクの重みを自動的に検索する新しいアプローチである。
論文 参考訳(メタデータ) (2023-01-30T02:27:02Z) - Task Compass: Scaling Multi-task Pre-training with Task Prefix [122.49242976184617]
既存の研究では、大規模教師付きタスクによるマルチタスク学習がタスク間の負の効果に悩まされていることが示されている。
タスク間の関係を探索するために,タスクプレフィックスガイド付きマルチタスク事前学習フレームワークを提案する。
我々のモデルは、幅広いタスクの強力な基盤バックボーンとして機能するだけでなく、タスク関係を分析するための探索ツールとしても実現可能である。
論文 参考訳(メタデータ) (2022-10-12T15:02:04Z) - Semantics-Depth-Symbiosis: Deeply Coupled Semi-Supervised Learning of
Semantics and Depth [83.94528876742096]
我々は,意味的セグメンテーションと深さ推定という2つの密なタスクのMTL問題に取り組み,クロスチャネル注意モジュール(CCAM)と呼ばれる新しいアテンションモジュールを提案する。
次に,AffineMixと呼ばれる予測深度を用いた意味分節タスクのための新しいデータ拡張と,ColorAugと呼ばれる予測セマンティクスを用いた単純な深度増分を定式化する。
最後に,提案手法の性能向上をCityscapesデータセットで検証し,深度と意味に基づく半教師付きジョイントモデルにおける最先端結果の実現を支援する。
論文 参考訳(メタデータ) (2022-06-21T17:40:55Z) - Boosting Supervised Learning Performance with Co-training [15.986635379046602]
我々は,教師付き学習性能を最小限のコストで向上させることができる,軽量な自己教師付き学習フレームワークを提案する。
以上の結果から,両タスクとも教師付きタスクの精度が向上し,ドメイン適応能力が向上することが示唆された。
論文 参考訳(メタデータ) (2021-11-18T17:01:17Z) - Adaptive Transfer Learning on Graph Neural Networks [4.233435459239147]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの強力な表現を学ぶために広く利用されている。
近年の研究では、自己教師型タスクから下流タスクへの知識伝達により、グラフ表現がさらに改善されることが示されている。
本稿では,GNN 上での移動学習パラダイムを提案する。これは,目標タスクを支援するための補助タスクとして,自己教師型タスクを効果的に活用することができる。
論文 参考訳(メタデータ) (2021-07-19T11:46:28Z) - Learning to Relate Depth and Semantics for Unsupervised Domain
Adaptation [87.1188556802942]
教師なしドメイン適応(UDA)設定において,視覚的タスク関係を符号化してモデル性能を向上させる手法を提案する。
本稿では,意味的および深さ的予測のタスク依存性を符号化する新しいクロスタスク関係層(ctrl)を提案する。
さらに、セマンティック擬似ラベルを利用してターゲットドメインを監督する反復自己学習(ISL)トレーニングスキームを提案する。
論文 参考訳(メタデータ) (2021-05-17T13:42:09Z) - Task-Feature Collaborative Learning with Application to Personalized
Attribute Prediction [166.87111665908333]
本稿では,TFCL(Task-Feature Collaborative Learning)と呼ばれる新しいマルチタスク学習手法を提案する。
具体的には、まず、特徴とタスクの協調的なグループ化を活用するために、不均一なブロック対角構造正規化器を用いたベースモデルを提案する。
実際の拡張として,重なり合う機能と難易度を区別することで,基本モデルを拡張します。
論文 参考訳(メタデータ) (2020-04-29T02:32:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。