論文の概要: Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations
- arxiv url: http://arxiv.org/abs/2210.14358v3
- Date: Fri, 6 Oct 2023 17:34:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 15:59:14.980500
- Title: Multi-Domain Long-Tailed Learning by Augmenting Disentangled
Representations
- Title(参考訳): アンタングル表現の強化による複数ドメイン長手学習
- Authors: Xinyu Yang, Huaxiu Yao, Allan Zhou, Chelsea Finn
- Abstract要約: 多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスとドメインにまたがってよく一般化されたモデルを作成することを目的とする。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合することでこれを達成している。
- 参考スコア(独自算出の注目度): 80.76164484820818
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is an inescapable long-tailed class-imbalance issue in many real-world
classification problems. Current methods for addressing this problem only
consider scenarios where all examples come from the same distribution. However,
in many cases, there are multiple domains with distinct class imbalance. We
study this multi-domain long-tailed learning problem and aim to produce a model
that generalizes well across all classes and domains. Towards that goal, we
introduce TALLY, a method that addresses this multi-domain long-tailed learning
problem. Built upon a proposed selective balanced sampling strategy, TALLY
achieves this by mixing the semantic representation of one example with the
domain-associated nuisances of another, producing a new representation for use
as data augmentation. To improve the disentanglement of semantic
representations, TALLY further utilizes a domain-invariant class prototype that
averages out domain-specific effects. We evaluate TALLY on several benchmarks
and real-world datasets and find that it consistently outperforms other
state-of-the-art methods in both subpopulation and domain shift. Our code and
data have been released at https://github.com/huaxiuyao/TALLY.
- Abstract(参考訳): 多くの現実世界の分類問題には、避けられない長い尾のクラスバランスの問題がある。
この問題に対処する現在の手法は、すべての例が同じ分布から来ているシナリオのみを考慮している。
しかし多くの場合、異なるクラス不均衡を持つ複数のドメインが存在する。
本稿では,この多領域長鎖学習問題について検討し,すべてのクラスやドメインに共通するモデルの構築を目指す。
そこで本研究では,この多領域長鎖学習問題に対処するTALLYを提案する。
TALLYは、選択的均衡サンプリング戦略に基づいて、ある例のセマンティック表現と別の例のドメイン関連ニュアンスを混合し、データ拡張として使用するための新しい表現を生成する。
意味表現のゆがみを改善するため、TALLYはドメイン固有の効果を平均化するドメイン不変クラスプロトタイプをさらに活用する。
いくつかのベンチマークや実世界のデータセットでTALLYを評価し、サブポピュレーションとドメインシフトの両方において、他の最先端の手法よりも一貫して優れています。
私たちのコードとデータはhttps://github.com/huaxiuyao/tallyでリリースされています。
関連論文リスト
- Composite Active Learning: Towards Multi-Domain Active Learning with
Theoretical Guarantees [12.316113075760743]
アクティブラーニング(AL)は、ラベルに最も有用なデータポイントを選択することで、固定されたラベル付け予算内でのモデルパフォーマンスを改善することを目的としている。
マルチドメインALのための合成能動学習(CAL)と呼ばれる最初の一般手法を提案する。
理論解析により,本手法は現在のAL法よりも優れた誤差境界が得られることが示された。
論文 参考訳(メタデータ) (2024-02-03T10:22:18Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - Domain-General Crowd Counting in Unseen Scenarios [25.171343652312974]
群集データ間のドメインシフトは、群集数モデルが目に見えないシナリオに一般化するのを著しく妨げます。
ソースドメインを複数のサブドメインに分割する動的サブドメイン分割方式を提案する。
画像特徴におけるドメイン固有情報からドメイン不変情報を切り離すために、ドメイン不変および-特定のクラウドメモリモジュールを設計する。
論文 参考訳(メタデータ) (2022-12-05T19:52:28Z) - Domain Generalization via Selective Consistency Regularization for Time
Series Classification [16.338176636365752]
ドメイン一般化手法は、限られた数のソースドメインからのデータで、ドメインシフトに頑健なモデルを学習することを目的としている。
本稿では,ソースドメイン間の予測一貫性を選択的に適用する表現学習手法を提案する。
論文 参考訳(メタデータ) (2022-06-16T01:57:35Z) - On Multi-Domain Long-Tailed Recognition, Generalization and Beyond [29.629072761463863]
マルチドメイン長大認識は、マルチドメイン不均衡データから学習する。
本稿では,移動可能性統計の上限を追跡する理論的な学習戦略であるBoDAを提案する。
副産物として、BoDAは、新しい最先端のドメイン一般化ベンチマークを確立し、目に見えないドメインへの一般化を改善した。
論文 参考訳(メタデータ) (2022-03-17T17:59:21Z) - Dynamic Instance Domain Adaptation [109.53575039217094]
教師なしのドメイン適応に関するほとんどの研究は、各ドメインのトレーニングサンプルがドメインラベルを伴っていると仮定している。
適応的な畳み込みカーネルを持つ動的ニューラルネットワークを開発し、各インスタンスにドメインに依存しない深い特徴を適応させるために、インスタンス適応残差を生成する。
我々のモデルはDIDA-Netと呼ばれ、複数の一般的な単一ソースおよび複数ソースのUDAデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-09T20:05:54Z) - Domain Generalization via Gradient Surgery [5.38147998080533]
現実のアプリケーションでは、マシンラーニングモデルは、トレーニングとテストドメイン間のデータ分散の変化があるシナリオに直面します。
本研究では,ドメインシフトのシナリオに現れる矛盾する勾配を特徴付けるとともに,新たな勾配合意戦略を考案する。
論文 参考訳(メタデータ) (2021-08-03T16:49:25Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z) - Not all domains are equally complex: Adaptive Multi-Domain Learning [98.25886129591974]
深層ニューラルネットワークを用いた多分野学習のための適応パラメータ化手法を提案する。
提案手法は,パラメータ数をはるかに削減しながら,元の手法と同等に動作する。
論文 参考訳(メタデータ) (2020-03-25T17:16:00Z) - Differential Treatment for Stuff and Things: A Simple Unsupervised
Domain Adaptation Method for Semantic Segmentation [105.96860932833759]
最先端のアプローチは、セマンティックレベルのアライメントの実行がドメインシフトの問題に取り組むのに役立つことを証明している。
我々は,物事領域や物事に対する異なる戦略による意味レベルのアライメントを改善することを提案する。
提案手法に加えて,提案手法は,ソースとターゲットドメイン間の最も類似した機能やインスタンス機能を最小化することにより,この問題の緩和に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-18T04:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。