論文の概要: Open-Set Likelihood Maximization for Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2301.08390v2
- Date: Fri, 19 May 2023 13:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 19:15:35.637677
- Title: Open-Set Likelihood Maximization for Few-Shot Learning
- Title(参考訳): 単発学習のためのオープンセット確率最大化
- Authors: Malik Boudiaf, Etienne Bennequin, Myriam Tami, Antoine Toubhans, Pablo
Piantanida, C\'eline Hudelot, Ismail Ben Ayed
- Abstract要約: 我々はFew-Shot Open-Set Recognition (FSOSR) 問題、すなわちいくつかのラベル付きサンプルしか持たないクラスのインスタンスを分類する問題に取り組む。
提案手法では,推論時に非競合なクエリインスタンスを利用する。
既存のトランスダクティブ手法はオープンセットのシナリオではうまく動作しないという観測により,最大極大原理の一般化を提案する。
- 参考スコア(独自算出の注目度): 36.97433312193586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We tackle the Few-Shot Open-Set Recognition (FSOSR) problem, i.e. classifying
instances among a set of classes for which we only have a few labeled samples,
while simultaneously detecting instances that do not belong to any known class.
We explore the popular transductive setting, which leverages the unlabelled
query instances at inference. Motivated by the observation that existing
transductive methods perform poorly in open-set scenarios, we propose a
generalization of the maximum likelihood principle, in which latent scores
down-weighing the influence of potential outliers are introduced alongside the
usual parametric model. Our formulation embeds supervision constraints from the
support set and additional penalties discouraging overconfident predictions on
the query set. We proceed with a block-coordinate descent, with the latent
scores and parametric model co-optimized alternately, thereby benefiting from
each other. We call our resulting formulation \textit{Open-Set Likelihood
Optimization} (OSLO). OSLO is interpretable and fully modular; it can be
applied on top of any pre-trained model seamlessly. Through extensive
experiments, we show that our method surpasses existing inductive and
transductive methods on both aspects of open-set recognition, namely inlier
classification and outlier detection.
- Abstract(参考訳): Few-Shot Open-Set Recognition (FSOSR) 問題、すなわち、いくつかのラベル付きサンプルしか持たないクラスのインスタンスを分類すると同時に、既知のクラスに属さないインスタンスを同時に検出する。
提案手法では,推論時に非競合なクエリインスタンスを利用する。
既設のトランスダクティブ法がオープンセットのシナリオでは性能に乏しいという観測に動機づけられ,一般のパラメトリックモデルと並行して,潜在的外れ値の影響を弱める潜在スコアの一般化を提案する。
提案方式では,クエリ集合に対する過密な予測を損なうサポートセットと追加のペナルティからの監督制約を組み込む。
我々は,潜在スコアとパラメトリックモデルが交互に最適化され,相互に利益を得るブロック座標降下を行う。
我々は、結果の定式化を \textit{Open-Set Likelihood Optimization} (OSLO) と呼ぶ。
OSLOは解釈可能で、完全にモジュール化されている。
広範な実験を通じて,本手法は,オープンセット認識の両面において既存の帰納的および帰納的手法,すなわち不規則分類と外れ値検出を上回っていることを示す。
関連論文リスト
- Cycles of Thought: Measuring LLM Confidence through Stable Explanations [53.15438489398938]
大規模言語モデル(LLM)は、様々なベンチマークで人間レベルの精度に到達し、さらに超えることができるが、不正確な応答における過度な自信は、依然として十分に文書化された障害モードである。
本稿では,LLMの不確実性を測定するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-05T16:35:30Z) - A Diffusion Model Framework for Unsupervised Neural Combinatorial Optimization [7.378582040635655]
現在のディープラーニングアプローチは、正確なサンプル確率を生み出す生成モデルに依存している。
この研究は、この制限を解除し、高度に表現力のある潜在変数モデルを採用する可能性を開放する手法を導入する。
我々は,データフリーなコンビネーション最適化におけるアプローチを実験的に検証し,幅広いベンチマーク問題に対して新しい最先端の手法を実現することを実証した。
論文 参考訳(メタデータ) (2024-06-03T17:55:02Z) - Hypothesis Testing for Class-Conditional Noise Using Local Maximum
Likelihood [1.8798171797988192]
教師付き学習では、学習が行われる前にラベルの質を自動的に評価することがオープンな研究課題である。
本稿では,本モデルが局所極大近似推定の積である場合,同様の手順を踏襲できることを示す。
この異なるビューは、よりリッチなモデルクラスへのアクセスを提供することで、テストのより広範な適用を可能にする。
論文 参考訳(メタデータ) (2023-12-15T22:14:58Z) - Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Model-Agnostic Few-Shot Open-Set Recognition [36.97433312193586]
我々はFew-Shot Open-Set Recognition (FSOSR) 問題に取り組む。
既存のモデルにプラグイン可能なモデルに依存しない推論手法の開発に注力する。
オープン・セット・トランスダクティブ・インフォメーション・最大化手法OSTIMを提案する。
論文 参考訳(メタデータ) (2022-06-18T16:27:59Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - A Low Rank Promoting Prior for Unsupervised Contrastive Learning [108.91406719395417]
提案手法は,従来の低階の促進をコントラスト学習の枠組みに効果的に組み込む新しい確率的グラフィカルモデルを構築する。
我々の仮説は、同じインスタンスクラスに属するすべてのサンプルが、小さな次元の同じ部分空間上にあることを明示的に要求する。
実証的な証拠は、提案アルゴリズムが複数のベンチマークにおける最先端のアプローチを明らかに上回っていることを示している。
論文 参考訳(メタデータ) (2021-08-05T15:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。