論文の概要: Harnessing Hierarchical Label Distribution Variations in Test Agnostic Long-tail Recognition
- arxiv url: http://arxiv.org/abs/2405.07780v1
- Date: Mon, 13 May 2024 14:24:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 13:25:43.156616
- Title: Harnessing Hierarchical Label Distribution Variations in Test Agnostic Long-tail Recognition
- Title(参考訳): テスト・アグノスティック・ロングテール認識における階層的ラベル分布の変動
- Authors: Zhiyong Yang, Qianqian Xu, Zitai Wang, Sicong Li, Boyu Han, Shilong Bao, Xiaochun Cao, Qingming Huang,
- Abstract要約: テストラベルの分布の変動は階層的にグローバルレベルとローカルレベルに分解できると主張している。
ラベル分布の異なるDirichletメタ分布に専門家を割り当てる新しいMoE戦略である$mathsfDirMixE$を提案する。
本稿では,分散に基づく正規化による一般化の促進による目的性を示す。
- 参考スコア(独自算出の注目度): 114.96385572118042
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores test-agnostic long-tail recognition, a challenging long-tail task where the test label distributions are unknown and arbitrarily imbalanced. We argue that the variation in these distributions can be broken down hierarchically into global and local levels. The global ones reflect a broad range of diversity, while the local ones typically arise from milder changes, often focused on a particular neighbor. Traditional methods predominantly use a Mixture-of-Expert (MoE) approach, targeting a few fixed test label distributions that exhibit substantial global variations. However, the local variations are left unconsidered. To address this issue, we propose a new MoE strategy, $\mathsf{DirMixE}$, which assigns experts to different Dirichlet meta-distributions of the label distribution, each targeting a specific aspect of local variations. Additionally, the diversity among these Dirichlet meta-distributions inherently captures global variations. This dual-level approach also leads to a more stable objective function, allowing us to sample different test distributions better to quantify the mean and variance of performance outcomes. Theoretically, we show that our proposed objective benefits from enhanced generalization by virtue of the variance-based regularization. Comprehensive experiments across multiple benchmarks confirm the effectiveness of $\mathsf{DirMixE}$. The code is available at \url{https://github.com/scongl/DirMixE}.
- Abstract(参考訳): 本稿では,テストラベルの分布が未知であり,任意に不均衡な長テールタスクである,テスト非依存の長テール認識について検討する。
これらの分布の変動は、階層的にグローバルなレベルとローカルなレベルに分解できると主張している。
グローバルなものは幅広い多様性を反映するが、地元のものは通常、より穏やかな変化から生じ、しばしば特定の隣人に焦点を当てる。
従来の手法ではMixture-of-Expert(MoE)アプローチが主流で、大域的な変化を示すいくつかの固定テストラベル分布をターゲットにしている。
ただし、地域差は考慮されていない。
この問題に対処するため、我々は新たなMoE戦略である$\mathsf{DirMixE}$を提案する。
さらに、ディリクレのメタ分布の多様性は本質的にグローバルな変動を捉えている。
この二重レベルアプローチはまた、より安定した客観的関数をもたらし、異なるテスト分布をサンプリングし、パフォーマンス結果の平均と分散を定量化できるようにします。
理論的には, 分散に基づく正規化による一般化の促進により, 提案する目的の利点が示される。
複数のベンチマークにわたる総合的な実験により、$\mathsf{DirMixE}$の有効性が確かめられる。
コードは \url{https://github.com/scongl/DirMixE} で公開されている。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Theory-inspired Label Shift Adaptation via Aligned Distribution Mixture [21.494268411607766]
ADM(Aligned Distribution Mixture)という名称の革新的なラベルシフトフレームワークを提案する。
本フレームワークでは,分類器学習プロセスに修正を加えることで,4つの典型的なラベルシフト手法を改良する。
提案手法の特異性を考慮し,効率的な二段階最適化戦略を開発する。
論文 参考訳(メタデータ) (2024-11-04T12:51:57Z) - SoftCVI: Contrastive variational inference with self-generated soft labels [2.5398014196797614]
変分推論とマルコフ連鎖モンテカルロ法がこのタスクの主要なツールである。
ソフトコントラスト変動推論(SoftCVI)を導入し、コントラスト推定フレームワークを用いて変動対象のファミリーを導出する。
我々は、SoftCVIを用いて、訓練や大量発見に安定な目標を定式化することができ、他の変分アプローチよりも頻繁に優れた推論が可能であることを発見した。
論文 参考訳(メタデータ) (2024-07-22T14:54:12Z) - Probabilistic Test-Time Generalization by Variational Neighbor-Labeling [62.158807685159736]
本稿では、ドメインの一般化を試み、モデルが未確認のターゲットドメインにデプロイされる前に、ソースドメインにのみトレーニングされる。
ソーストレーニングされたモデルをテスト時にターゲットドメインに一般化するための、ターゲットサンプルの擬似ラベル化の確率。
より堅牢な擬似ラベルを生成するために、近隣のターゲットサンプルの情報を含む変分隣接ラベル。
論文 参考訳(メタデータ) (2023-07-08T18:58:08Z) - Generalized Universal Domain Adaptation with Generative Flow Networks [76.1350941965148]
Generalized Universal Domain Adaptationは、未知のカテゴリを含む全てのターゲットラベルの正確な予測を実現することを目的としている。
GUDAはラベル分布シフトベースとラベル空間ミスマッチベースとのギャップを埋める。
本稿では,報酬関数に比例した確率を持つ多種多様なサンプルを選択する,GFlowDAというドメイン適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-08T05:34:15Z) - Identifiable Latent Causal Content for Domain Adaptation under Latent Covariate Shift [82.14087963690561]
マルチソースドメイン適応(MSDA)は、ラベル付き対象ドメインのラベル予測関数を学習する際の課題に対処する。
本稿では,潜在コンテンツ変数と潜時スタイル変数とともに,ドメイン間の潜時雑音を導入し,複雑な因果生成モデルを提案する。
提案手法は、シミュレーションと実世界の両方のデータセットに対して、例外的な性能と有効性を示す。
論文 参考訳(メタデータ) (2022-08-30T11:25:15Z) - Characterizing Generalization under Out-Of-Distribution Shifts in Deep
Metric Learning [32.51394862932118]
本稿では,DMLにおける分布外シフトの下での一般化を特徴付けるために,ooDMLベンチマークを提案する。
ooDMLは、より困難で多様な列車間分散シフトにおいて、一般化性能を調査するために設計されている。
一般化は難易度に常に低下する傾向にあるが, 分散シフトが増加するにつれて, 性能が向上する手法もある。
論文 参考訳(メタデータ) (2021-07-20T15:26:09Z) - Capturing Label Distribution: A Case Study in NLI [19.869498599986006]
予測されたラベルエントロピーに一致する予測されたラベル分布のポストホックスムージングは非常に効果的です。
トレーニングに複数の参照を持つ少数の例を紹介します。
論文 参考訳(メタデータ) (2021-02-13T04:14:31Z) - Unveiling Class-Labeling Structure for Universal Domain Adaptation [12.411096265140479]
共用ラベル集合の探索には確率論的手法を用いており、各ソースクラスは確率で共用ラベル集合から来ることができる。
共通ラベル集合に対する確率的構造を組み込んだ単純なユニバーサル適応ネットワーク(S-UAN)を提案する。
実験により、S-UANは異なるUDA設定でうまく機能し、最先端の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2020-10-10T02:13:02Z) - A Sample Selection Approach for Universal Domain Adaptation [94.80212602202518]
普遍シナリオにおける教師なし領域適応の問題について検討する。
ソースドメインとターゲットドメインの間で共有されるクラスは、一部のみである。
共有クラスのサンプルの同定に有効なスコアリング方式を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。