論文の概要: On Multi-Domain Long-Tailed Recognition, Generalization and Beyond
- arxiv url: http://arxiv.org/abs/2203.09513v1
- Date: Thu, 17 Mar 2022 17:59:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 13:05:05.323035
- Title: On Multi-Domain Long-Tailed Recognition, Generalization and Beyond
- Title(参考訳): マルチドメイン長大認識・一般化・超越について
- Authors: Yuzhe Yang, Hao Wang, Dina Katabi
- Abstract要約: マルチドメイン長大認識は、マルチドメイン不均衡データから学習する。
本稿では,移動可能性統計の上限を追跡する理論的な学習戦略であるBoDAを提案する。
副産物として、BoDAは、新しい最先端のドメイン一般化ベンチマークを確立し、目に見えないドメインへの一般化を改善した。
- 参考スコア(独自算出の注目度): 29.629072761463863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-world data often exhibit imbalanced label distributions. Existing
studies on data imbalance focus on single-domain settings, i.e., samples are
from the same data distribution. However, natural data can originate from
distinct domains, where a minority class in one domain could have abundant
instances from other domains. We formalize the task of Multi-Domain Long-Tailed
Recognition (MDLT), which learns from multi-domain imbalanced data, addresses
label imbalance, domain shift, and divergent label distributions across
domains, and generalizes to all domain-class pairs. We first develop the
domain-class transferability graph, and show that such transferability governs
the success of learning in MDLT. We then propose BoDA, a theoretically grounded
learning strategy that tracks the upper bound of transferability statistics,
and ensures balanced alignment and calibration across imbalanced domain-class
distributions. We curate five MDLT benchmarks based on widely-used multi-domain
datasets, and compare BoDA to twenty algorithms that span different learning
strategies. Extensive and rigorous experiments verify the superior performance
of BoDA. Further, as a byproduct, BoDA establishes new state-of-the-art on
Domain Generalization benchmarks, improving generalization to unseen domains.
Code and data are available at
https://github.com/YyzHarry/multi-domain-imbalance.
- Abstract(参考訳): 実世界のデータは、しばしば不均衡なラベル分布を示す。
データの不均衡に関する既存の研究は、単一のドメインの設定、すなわち同じデータ分散からのサンプルに焦点を当てている。
しかし、自然データは、あるドメインのマイノリティクラスが他のドメインから豊富なインスタンスを持つことができる異なるドメインに由来する可能性がある。
我々は,マルチドメイン不均衡データ,ラベル不均衡,ドメインシフト,ドメイン間のラベル分散から学習し,すべてのドメインクラス対に一般化するマルチドメインロングテール認識(mdlt)のタスクを定式化する。
まず,ドメインクラストランスファービリティグラフを開発し,mdltにおける学習の成功を制御していることを示す。
次に,転送可能性統計の上限を追跡し,不均衡なドメインクラス分布をまたいだバランスのとれたアライメントとキャリブレーションを保証する理論的根拠付き学習戦略bodaを提案する。
広く使われているマルチドメインデータセットに基づいてMDLTベンチマークを5つキュレートし、BoDAを異なる学習戦略にまたがる20のアルゴリズムと比較する。
広範かつ厳密な実験は、BoDAの優れた性能を検証する。
さらに、副産物として、BoDAはドメインの一般化に関する新しい最先端のベンチマークを確立し、目に見えないドメインへの一般化を改善した。
コードとデータはhttps://github.com/yyzharry/multi-domain-imbalanceで入手できる。
関連論文リスト
- Overcoming Data Inequality across Domains with Semi-Supervised Domain
Generalization [4.921899151930171]
本稿では,ドメイン認識型プロトタイプを用いて,ドメイン不変性を効果的に学習できる新しいアルゴリズムProUDを提案する。
3つの異なるベンチマークデータセットに対する実験により, ProUDの有効性が示された。
論文 参考訳(メタデータ) (2024-03-08T10:49:37Z) - Composite Active Learning: Towards Multi-Domain Active Learning with
Theoretical Guarantees [12.316113075760743]
アクティブラーニング(AL)は、ラベルに最も有用なデータポイントを選択することで、固定されたラベル付け予算内でのモデルパフォーマンスを改善することを目的としている。
マルチドメインALのための合成能動学習(CAL)と呼ばれる最初の一般手法を提案する。
理論解析により,本手法は現在のAL法よりも優れた誤差境界が得られることが示された。
論文 参考訳(メタデータ) (2024-02-03T10:22:18Z) - Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations [80.76164484820818]
多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
論文 参考訳(メタデータ) (2022-10-25T21:54:26Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Aligning Domain-specific Distribution and Classifier for Cross-domain
Classification from Multiple Sources [25.204055330850164]
教師なしドメイン適応のための2つのアライメントステージを持つ新しいフレームワークを提案する。
本手法は画像分類のための一般的なベンチマークデータセットにおいて顕著な結果が得られる。
論文 参考訳(メタデータ) (2022-01-04T06:35:11Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Mind the Gap: Enlarging the Domain Gap in Open Set Domain Adaptation [65.38975706997088]
オープンセットドメイン適応(OSDA)は、ターゲットドメインに未知のクラスが存在することを前提としている。
既存の最先端手法は、より大きなドメインギャップが存在する場合、かなりの性能低下を被ることを示す。
我々は、より大きなドメインギャップに特に対処するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-08T14:20:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。