論文の概要: Overcoming Shortcut Learning in a Target Domain by Generalizing Basic
Visual Factors from a Source Domain
- arxiv url: http://arxiv.org/abs/2207.10002v1
- Date: Wed, 20 Jul 2022 16:05:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:44:13.765879
- Title: Overcoming Shortcut Learning in a Target Domain by Generalizing Basic
Visual Factors from a Source Domain
- Title(参考訳): ソース領域から基本視覚因子を一般化したターゲット領域におけるショートカット学習の克服
- Authors: Piyapat Saranrittichai, Chaithanya Kumar Mummadi, Claudia Blaiotta,
Mauricio Munoz and Volker Fischer
- Abstract要約: ショートカット学習は、深層ニューラルネットワークが下流タスクを解決するためにトレーニングデータセットの急激な相関に過度に依存する場合に発生する。
制御不能な対象領域におけるショートカット学習を緩和する新しい手法を提案する。
- 参考スコア(独自算出の注目度): 7.012240324005977
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Shortcut learning occurs when a deep neural network overly relies on spurious
correlations in the training dataset in order to solve downstream tasks. Prior
works have shown how this impairs the compositional generalization capability
of deep learning models. To address this problem, we propose a novel approach
to mitigate shortcut learning in uncontrolled target domains. Our approach
extends the training set with an additional dataset (the source domain), which
is specifically designed to facilitate learning independent representations of
basic visual factors. We benchmark our idea on synthetic target domains where
we explicitly control shortcut opportunities as well as real-world target
domains. Furthermore, we analyze the effect of different specifications of the
source domain and the network architecture on compositional generalization. Our
main finding is that leveraging data from a source domain is an effective way
to mitigate shortcut learning. By promoting independence across different
factors of variation in the learned representations, networks can learn to
consider only predictive factors and ignore potential shortcut factors during
inference.
- Abstract(参考訳): ショートカット学習は、下流タスクを解決するために、深層ニューラルネットワークがトレーニングデータセットの急激な相関に過度に依存する場合に発生する。
先行研究は、これがディープラーニングモデルの合成一般化能力を損なうことを示した。
そこで本研究では,非制御対象領域における近道学習を緩和する新しい手法を提案する。
我々のアプローチは、基本的な視覚要素の独立表現の学習を容易にするために特別に設計された追加データセット(ソースドメイン)でトレーニングセットを拡張します。
私たちは、近道の機会と現実世界のターゲットドメインを明示的に制御する合成ターゲットドメインで、私たちのアイデアをベンチマークします。
さらに、ソースドメインとネットワークアーキテクチャの異なる仕様が合成一般化に与える影響について分析する。
私たちのおもな発見は、ソースドメインからのデータを活用することが、近道学習を緩和する効果的な方法であることです。
学習表現のばらつきの異なる要因にまたがる独立性を促進することによって、ネットワークは予測因子のみを考慮し、推論中に潜在的な近道因子を無視することを学ぶことができる。
関連論文リスト
- Decentralized Learning Strategies for Estimation Error Minimization with Graph Neural Networks [94.2860766709971]
統計的に同一性を持つ無線ネットワークにおける自己回帰的マルコフ過程のサンプリングとリモート推定の課題に対処する。
我々のゴールは、分散化されたスケーラブルサンプリングおよび送信ポリシーを用いて、時間平均推定誤差と/または情報の年齢を最小化することである。
論文 参考訳(メタデータ) (2024-04-04T06:24:11Z) - Bridging Domains with Approximately Shared Features [26.096779584142986]
マルチソースドメイン適応は、未知のドメインに機械学習モデルを適用する際のパフォーマンス劣化を低減することを目的としている。
ソースドメインから不変の機能を学ぶことを支持する者もいれば、より多様な機能を好む者もいる。
本稿では,それらの相関関係のばらつきに基づいて特徴の効用を識別し,ドメイン間で$y$のラベルを付ける統計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T04:25:41Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - CDFSL-V: Cross-Domain Few-Shot Learning for Videos [58.37446811360741]
ビデオのアクション認識は、いくつかのラベル付き例でのみ、新しいカテゴリを認識するための効果的なアプローチである。
既存のビデオアクション認識の方法は、同じドメインからの大きなラベル付きデータセットに依存している。
本稿では,自己教師付き学習とカリキュラム学習を活用した,クロスドメインな数ショットビデオ行動認識手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T19:44:27Z) - Meta-causal Learning for Single Domain Generalization [102.53303707563612]
単一ドメインの一般化は、単一のトレーニングドメイン(ソースドメイン)からモデルを学び、それを複数の未確認テストドメイン(ターゲットドメイン)に適用することを目的としている。
既存の方法は、ターゲットドメインをカバーするためのトレーニングドメインの配布拡大に重点を置いているが、ソースとターゲットドメイン間のドメインシフトを見積もることはできない。
そこで本研究では,まず,対象ドメインとして補助ドメインを構築することによってドメインシフトをシミュレートし,ドメインシフトの原因を解析し,最終的にモデル適応のためのドメインシフトを低減する,新たな学習パラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-07T15:46:38Z) - Learning Good Features to Transfer Across Tasks and Domains [16.05821129333396]
まず、与えられたドメイン内のタスク固有の深い機能間のマッピングを学習することで、タスク間でそのような知識を共有できることを示します。
そして、ニューラルネットワークによって実装されたこのマッピング関数が、新しい未知の領域に一般化可能であることを示す。
論文 参考訳(メタデータ) (2023-01-26T18:49:39Z) - Algorithms and Theory for Supervised Gradual Domain Adaptation [19.42476993856205]
本研究では, 学習者に対して, 学習経路に沿った変化分布からラベル付きデータを利用できるようにするための, 教師付き段階的領域適応の課題について検討する。
この設定の下では、軽度な仮定の下で学習誤差に関する最初の一般化上限を提供する。
本研究の結果は, 損失関数の範囲に依存しないアルゴリズムであり, 軌道上の平均学習誤差にのみ依存する。
論文 参考訳(メタデータ) (2022-04-25T13:26:11Z) - Deep transfer learning for partial differential equations under
conditional shift with DeepONet [0.0]
深層演算子ネットワーク(DeepONet)を用いた条件シフト下でのタスク固有学習のための新しいTLフレームワークを提案する。
条件埋め込み演算子理論に触発されて、ソース領域とターゲット特徴領域の間の統計的距離を測定する。
提案するTLフレームワークは,ソースドメインとターゲットドメインの間に大きな違いがあるにも関わらず,高速かつ効率的なマルチタスク演算子学習を可能にする。
論文 参考訳(メタデータ) (2022-04-20T23:23:38Z) - Coarse to Fine: Domain Adaptive Crowd Counting via Adversarial Scoring
Network [58.05473757538834]
本稿では,ドメイン間のギャップを粗い粒度から細かな粒度に埋める新しい逆スコアリングネットワーク (ASNet) を提案する。
3組のマイグレーション実験により,提案手法が最先端のカウント性能を実現することを示す。
論文 参考訳(メタデータ) (2021-07-27T14:47:24Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。