論文の概要: Realistic Evaluation of Transductive Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2204.11181v1
- Date: Sun, 24 Apr 2022 03:35:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 04:22:35.554483
- Title: Realistic Evaluation of Transductive Few-Shot Learning
- Title(参考訳): トランスダクティブFew-Shot学習の現実的評価
- Authors: Olivier Veilleux, Malik Boudiaf, Pablo Piantanida, Ismail Ben Ayed
- Abstract要約: トランスダクティブ推論は、数ショットの学習で広く使われている。
推論における少数ショットタスクの問合せセット内における任意のクラス分布の効果について検討する。
我々は,3つの広く使用されているデータセットに対して,最先端のトランスダクティブ手法を実験的に評価した。
- 参考スコア(独自算出の注目度): 41.06192162435249
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transductive inference is widely used in few-shot learning, as it leverages
the statistics of the unlabeled query set of a few-shot task, typically
yielding substantially better performances than its inductive counterpart. The
current few-shot benchmarks use perfectly class-balanced tasks at inference. We
argue that such an artificial regularity is unrealistic, as it assumes that the
marginal label probability of the testing samples is known and fixed to the
uniform distribution. In fact, in realistic scenarios, the unlabeled query sets
come with arbitrary and unknown label marginals. We introduce and study the
effect of arbitrary class distributions within the query sets of few-shot tasks
at inference, removing the class-balance artefact. Specifically, we model the
marginal probabilities of the classes as Dirichlet-distributed random
variables, which yields a principled and realistic sampling within the simplex.
This leverages the current few-shot benchmarks, building testing tasks with
arbitrary class distributions. We evaluate experimentally state-of-the-art
transductive methods over 3 widely used data sets, and observe, surprisingly,
substantial performance drops, even below inductive methods in some cases.
Furthermore, we propose a generalization of the mutual-information loss, based
on $\alpha$-divergences, which can handle effectively class-distribution
variations. Empirically, we show that our transductive $\alpha$-divergence
optimization outperforms state-of-the-art methods across several data sets,
models and few-shot settings. Our code is publicly available at
https://github.com/oveilleux/Realistic_Transductive_Few_Shot.
- Abstract(参考訳): トランスダクティブ推論(Transductive inference)は、数ショットのタスクのラベル付けされていないクエリセットの統計を利用するため、数ショットの学習で広く使われている。
現在のマイナショットベンチマークでは、推論時に完全なクラスバランスのタスクを使用する。
このような人工的正則性は非現実的であり、テストサンプルの限界ラベル確率が知られ、均一分布に固定されていると仮定する。
実際、現実的なシナリオでは、ラベルなしのクエリセットには任意のラベルの限界がある。
提案手法では,クラスバランスアーティファクトを取り除き,推論時の少数タスクの問合せ集合内の任意のクラス分布の影響について検討する。
具体的には、クラスの限界確率をdirichlet-distributed random variableとしてモデル化する。
これは現在の数ショットのベンチマークを活用し、任意のクラス分布でテストタスクを構築する。
提案手法は,3つの広く使用されているデータセットに対して実験的に最先端のトランスダクティブ手法の評価を行い,その性能低下を観察する。
さらに,クラス分配の変動を効果的に処理できる$\alpha$-divergencesに基づく相互情報損失の一般化を提案する。
経験的に、当社のトランスダクティブ$\alpha$-divergence最適化は、いくつかのデータセット、モデル、少数の設定で最先端のメソッドよりも優れています。
私たちのコードはhttps://github.com/oveilleux/Realistic_Transductive_Few_Shotで公開されています。
関連論文リスト
- SimPro: A Simple Probabilistic Framework Towards Realistic Long-Tailed Semi-Supervised Learning [49.94607673097326]
ラベルなしデータの分散に関する前提を前提としない、高度に適応可能なフレームワークをSimProとして提案する。
我々のフレームワークは確率モデルに基づいており、期待最大化アルゴリズムを革新的に洗練する。
本手法は,様々なベンチマークやデータ分散シナリオにまたがる一貫した最先端性能を示す。
論文 参考訳(メタデータ) (2024-02-21T03:39:04Z) - Dr. FERMI: A Stochastic Distributionally Robust Fair Empirical Risk
Minimization Framework [12.734559823650887]
分散シフトが存在する場合、公正な機械学習モデルはテストデータに対して不公平に振る舞うことがある。
既存のアルゴリズムはデータへの完全なアクセスを必要とし、小さなバッチを使用する場合には使用できない。
本稿では,因果グラフの知識を必要としない収束保証付き分布安定度フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-20T23:25:28Z) - Adaptive manifold for imbalanced transductive few-shot learning [16.627512688664513]
適応マニフォールド(Adaptive Manifold)という,不均衡なトランスダクティブ・ショット・ラーニングに対処する新しいアルゴリズムを提案する。
提案手法は,ラベル付きサポート例とラベルなしクエリの基盤となる多様体を利用して,クエリごとのクラス確率分布を予測する。
論文 参考訳(メタデータ) (2023-04-27T15:42:49Z) - Accounting for multiplicity in machine learning benchmark performance [0.0]
最先端のパフォーマンスをSOTA(State-of-the-art)のパフォーマンスの見積として使うのはバイアスのある推定器であり、過度に楽観的な結果をもたらす。
本稿では、複数の分類器の場合の確率分布について、既知の解析手法を適用できるようにし、より優れたSOTA推定値を提供する。
論文 参考訳(メタデータ) (2023-03-10T10:32:18Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - Predicting Out-of-Domain Generalization with Neighborhood Invariance [59.05399533508682]
局所変換近傍における分類器の出力不変性の尺度を提案する。
私たちの測度は計算が簡単で、テストポイントの真のラベルに依存しません。
画像分類,感情分析,自然言語推論のベンチマーク実験において,我々の測定値と実際のOOD一般化との間に強い相関関係を示す。
論文 参考訳(メタデータ) (2022-07-05T14:55:16Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。