論文の概要: Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations
- arxiv url: http://arxiv.org/abs/2210.14358v1
- Date: Tue, 25 Oct 2022 21:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 13:28:25.504149
- Title: Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations
- Title(参考訳): アンタングル表現の強化による複数ドメイン長手学習
- Authors: Huaxiu Yao, Xinyu Yang, Allan Zhou, Chelsea Finn
- Abstract要約: 実世界のシナリオは、しばしば異なる不均衡なクラス分布を持つ複数のドメインを含む。
本稿では,ドメインやクラスに隠された表現をバランスよく拡張することで,不変な予測子を生成するTALLYを紹介する。
我々は,古典的領域一般化ベンチマークと実世界不均衡な2つのマルチドメインデータセットの長い尾を持つ4つの変種に対してTALLYを評価する。
- 参考スコア(独自算出の注目度): 74.1890114755864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is an inescapable long-tailed class-imbalance issue in many real-world
classification problems. Existing long-tailed classification methods focus on
the single-domain setting, where all examples are drawn from the same
distribution. However, real-world scenarios often involve multiple domains with
distinct imbalanced class distributions. We study this multi-domain long-tailed
learning problem and aim to produce a model that generalizes well across all
classes and domains. Towards that goal, we introduce TALLY, which produces
invariant predictors by balanced augmenting hidden representations over domains
and classes. Built upon a proposed selective balanced sampling strategy, TALLY
achieves this by mixing the semantic representation of one example with the
domain-associated nuisances of another, producing a new representation for use
as data augmentation. To improve the disentanglement of semantic
representations, TALLY further utilizes a domain-invariant class prototype that
averages out domain-specific effects. We evaluate TALLY on four long-tailed
variants of classical domain generalization benchmarks and two real-world
imbalanced multi-domain datasets. The results indicate that TALLY consistently
outperforms other state-of-the-art methods in both subpopulation shift and
domain shift.
- Abstract(参考訳): 多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
既存のロングテール分類法は、すべての例が同じ分布から引き出されるシングルドメイン設定にフォーカスしている。
しかし、現実世界のシナリオは、しばしば異なるクラス分布を持つ複数のドメインを含む。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスやドメインに共通するモデルの構築を目指す。
この目標に向けて,ドメインやクラスに対する隠れ表現のバランスを保ち,不変な予測子を生成するTALLYを導入する。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合し、データ拡張として使用するための新しい表現を生成する。
意味表現のゆがみを改善するため、TALLYはドメイン固有の効果を平均化するドメイン不変クラスプロトタイプをさらに活用する。
我々は,古典的領域一般化ベンチマークと実世界不均衡な2つのマルチドメインデータセットの4つの長尾変種に対してTALLYを評価する。
その結果,サブポピュレーションシフトとドメインシフトの両方において,tallyは他の最先端手法を一貫して上回っていることがわかった。
関連論文リスト
- Composite Active Learning: Towards Multi-Domain Active Learning with
Theoretical Guarantees [12.316113075760743]
アクティブラーニング(AL)は、ラベルに最も有用なデータポイントを選択することで、固定されたラベル付け予算内でのモデルパフォーマンスを改善することを目的としている。
マルチドメインALのための合成能動学習(CAL)と呼ばれる最初の一般手法を提案する。
理論解析により,本手法は現在のAL法よりも優れた誤差境界が得られることが示された。
論文 参考訳(メタデータ) (2024-02-03T10:22:18Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Domain-General Crowd Counting in Unseen Scenarios [25.171343652312974]
群集データ間のドメインシフトは、群集数モデルが目に見えないシナリオに一般化するのを著しく妨げます。
ソースドメインを複数のサブドメインに分割する動的サブドメイン分割方式を提案する。
画像特徴におけるドメイン固有情報からドメイン不変情報を切り離すために、ドメイン不変および-特定のクラウドメモリモジュールを設計する。
論文 参考訳(メタデータ) (2022-12-05T19:52:28Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - On Multi-Domain Long-Tailed Recognition, Generalization and Beyond [29.629072761463863]
マルチドメイン長大認識は、マルチドメイン不均衡データから学習する。
本稿では,移動可能性統計の上限を追跡する理論的な学習戦略であるBoDAを提案する。
副産物として、BoDAは、新しい最先端のドメイン一般化ベンチマークを確立し、目に見えないドメインへの一般化を改善した。
論文 参考訳(メタデータ) (2022-03-17T17:59:21Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Not all domains are equally complex: Adaptive Multi-Domain Learning [98.25886129591974]
深層ニューラルネットワークを用いた多分野学習のための適応パラメータ化手法を提案する。
提案手法は,パラメータ数をはるかに削減しながら,元の手法と同等に動作する。
論文 参考訳(メタデータ) (2020-03-25T17:16:00Z) - Differential Treatment for Stuff and Things: A Simple Unsupervised
Domain Adaptation Method for Semantic Segmentation [105.96860932833759]
最先端のアプローチは、セマンティックレベルのアライメントの実行がドメインシフトの問題に取り組むのに役立つことを証明している。
我々は,物事領域や物事に対する異なる戦略による意味レベルのアライメントを改善することを提案する。
提案手法に加えて,提案手法は,ソースとターゲットドメイン間の最も類似した機能やインスタンス機能を最小化することにより,この問題の緩和に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-18T04:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。