論文の概要: Prototypes-oriented Transductive Few-shot Learning with Conditional
Transport
- arxiv url: http://arxiv.org/abs/2308.03047v1
- Date: Sun, 6 Aug 2023 08:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 16:59:53.025588
- Title: Prototypes-oriented Transductive Few-shot Learning with Conditional
Transport
- Title(参考訳): 条件付き移動を用いたプロトタイプ指向トランスダクティブ・ファウショット学習
- Authors: Long Tian, Jingyi Feng, Wenchao Chen, Xiaoqiang Chai, Liming Wang,
Xiyang Liu, Bo Chen
- Abstract要約: Textbf Prots-oriented textbf Un textbf Transfer textbf Model (PUTM)
本研究では,textbf Prots-oriented textbf Un textbf Transfer textbf Model (PUTM) と呼ばれる新しいトランスポート条件付き不均衡Lモデルを提案する。
- 参考スコア(独自算出の注目度): 20.084951034516436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transductive Few-Shot Learning (TFSL) has recently attracted increasing
attention since it typically outperforms its inductive peer by leveraging
statistics of query samples. However, previous TFSL methods usually encode
uniform prior that all the classes within query samples are equally likely,
which is biased in imbalanced TFSL and causes severe performance degradation.
Given this pivotal issue, in this work, we propose a novel Conditional
Transport (CT) based imbalanced TFSL model called {\textbf P}rototypes-oriented
{\textbf U}nbiased {\textbf T}ransfer {\textbf M}odel (PUTM) to fully exploit
unbiased statistics of imbalanced query samples, which employs forward and
backward navigators as transport matrices to balance the prior of query samples
per class between uniform and adaptive data-driven distributions. For
efficiently transferring statistics learned by CT, we further derive a closed
form solution to refine prototypes based on MAP given the learned navigators.
The above two steps of discovering and transferring unbiased statistics follow
an iterative manner, formulating our EM-based solver.
Experimental results on four standard benchmarks including miniImageNet,
tieredImageNet, CUB, and CIFAR-FS demonstrate superiority of our model in
class-imbalanced generalization.
- Abstract(参考訳): Transductive Few-Shot Learning (TFSL)は、クエリサンプルの統計を利用して、典型的にはインダクティブピアを上回っているため、最近注目を集めている。
しかしながら、従来のTFSLメソッドは通常、クエリサンプル内のすべてのクラスが等しく、不均衡なTFSLに偏り、パフォーマンスが著しく低下する可能性があることを前に、均一にエンコードする。
この重要な問題を踏まえ、本研究では、不均衡なクエリサンプルの偏りのない統計をフル活用するために、新しい条件輸送(CT)ベースのTFSLモデルである {\textbf P}rototypes-oriented {\textbf U}nbiased {\textbf T}ransfer {\textbf M}odel (PUTM)を提案する。
CTにより学習された統計を効率的に転送するために、学習したナビゲータからMAPに基づいてプロトタイプを洗練するための閉形式解を導出する。
上記の2段階は、偏りのない統計を発見して転送する反復的な方法に従い、emベースの解法を定式化します。
miniImageNet, tieredImageNet, CUB, CIFAR-FS の4つの標準ベンチマークによる実験結果から, クラス不均衡一般化におけるモデルの有用性が示された。
関連論文リスト
- Discover Your Neighbors: Advanced Stable Test-Time Adaptation in Dynamic World [8.332531696256666]
Discover Your Neighbours (DYN)は、動的テスト時間適応(TTA)に特化した最初の後方自由アプローチである。
我々のDYNは階層型インスタンス統計クラスタリング(LISC)とクラスタ対応バッチ正規化(CABN)で構成されています。
DYNのロバスト性と有効性を評価し、動的データストリームパターン下での維持性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2024-06-08T09:22:32Z) - Few-Shot Class Incremental Learning via Robust Transformer Approach [16.590193619691416]
Few-Shot Class-Incremental Learningは,データ不足の問題にモデルが直面しているクラス増分学習問題の拡張を提示する。
この問題は、最近のすべての研究が、準最適に実行される畳み込みニューラルネットワークの上に構築されているため、未解決の問題のままである。
本稿では,コンパクト畳み込み変換器を用いたロバスト変換器を提案する。
論文 参考訳(メタデータ) (2024-05-08T03:35:52Z) - Revisiting the Dataset Bias Problem from a Statistical Perspective [72.94990819287551]
統計的観点から「データセットバイアス」問題を考察する。
問題の主な原因は、クラス属性 u と非クラス属性 b の強い相関関係である。
本稿では,各試料nの目的をフラクタル1p(u_n|b_n)で重み付けするか,その試料をフラクタル1p(u_n|b_n)に比例してサンプリングすることにより,データセットバイアスを軽減することを提案する。
論文 参考訳(メタデータ) (2024-02-05T22:58:06Z) - Twice Class Bias Correction for Imbalanced Semi-Supervised Learning [59.90429949214134]
textbfTwice textbfClass textbfBias textbfCorrection (textbfTCBC) と呼ばれる新しいアプローチを導入する。
トレーニング過程におけるモデルパラメータのクラスバイアスを推定する。
非ラベル標本に対してモデルの擬似ラベルに二次補正を適用する。
論文 参考訳(メタデータ) (2023-12-27T15:06:36Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Adaptive Distribution Calibration for Few-Shot Learning with
Hierarchical Optimal Transport [78.9167477093745]
本稿では,新しいサンプルとベースクラス間の適応重み行列を学習し,新しい分布校正法を提案する。
標準ベンチマーク実験の結果,提案したプラグ・アンド・プレイモデルの方が競合する手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-10-09T02:32:57Z) - Learning to Re-weight Examples with Optimal Transport for Imbalanced
Classification [74.62203971625173]
不均衡データは、ディープラーニングに基づく分類モデルに課題をもたらす。
不均衡なデータを扱うための最も広く使われているアプローチの1つは、再重み付けである。
本稿では,分布の観点からの最適輸送(OT)に基づく新しい再重み付け手法を提案する。
論文 参考訳(メタデータ) (2022-08-05T01:23:54Z) - Transfer and Share: Semi-Supervised Learning from Long-Tailed Data [27.88381366842497]
本稿では、TRAS(TRAnsfer and Share)を用いて、長い尾を持つ半教師付きデータを効果的に活用する。
TRASは従来のSSLモデルの不均衡な擬似ラベル分布を変換する。
その後、マイノリティクラスが大きな注目を集めるように、分布をターゲットモデルに転送する。
論文 参考訳(メタデータ) (2022-05-26T13:37:59Z) - Comparing Probability Distributions with Conditional Transport [63.11403041984197]
新しい発散として条件輸送(CT)を提案し、償却されたCT(ACT)コストと近似します。
ACTは条件付き輸送計画の計算を補正し、計算が容易な非バイアスのサンプル勾配を持つ。
さまざまなベンチマークデータセットのジェネレーティブモデリングでは、既存のジェネレーティブ敵対ネットワークのデフォルトの統計距離をACTに置き換えることで、一貫してパフォーマンスを向上させることが示されています。
論文 参考訳(メタデータ) (2020-12-28T05:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。