論文の概要: Bidirectional Uncertainty-Based Active Learning for Open Set Annotation
- arxiv url: http://arxiv.org/abs/2402.15198v1
- Date: Fri, 23 Feb 2024 08:59:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 15:10:47.538704
- Title: Bidirectional Uncertainty-Based Active Learning for Open Set Annotation
- Title(参考訳): オープンセットアノテーションのための双方向不確実性に基づくアクティブラーニング
- Authors: Chen-Chen Zong, Ye-Wen Wang, Kun-Peng Ning, Haibo Ye, Sheng-Jun Huang
- Abstract要約: オープンセットのシナリオにおけるアクティブラーニングは、ラベルのないデータプールでもっとも価値のある例を特定するという、新たな課題を示している。
従来の手法では、信頼度が低い情報的事例を選択することを優先しており、同様に信頼度が低い未知の事例を誤って選択する危険性がある。
近年の手法は、単純な習得済みの例を選ぶリスクを伴って、最も可能性の高い既知の例を好んでいる。
正と負の両方の学習によって生じる不確実性を共同で推定し、一貫した安定なサンプリングを行うことにより、テキストの双方向不確実性サンプリング戦略を提案する。
- 参考スコア(独自算出の注目度): 30.709487771896768
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning (AL) in open set scenarios presents a novel challenge of
identifying the most valuable examples in an unlabeled data pool that comprises
data from both known and unknown classes. Traditional methods prioritize
selecting informative examples with low confidence, with the risk of mistakenly
selecting unknown-class examples with similarly low confidence. Recent methods
favor the most probable known-class examples, with the risk of picking simple
already mastered examples. In this paper, we attempt to query examples that are
both likely from known classes and highly informative, and propose a
\textit{Bidirectional Uncertainty-based Active Learning} (BUAL) framework.
Specifically, we achieve this by first pushing the unknown class examples
toward regions with high-confidence predictions with our proposed
\textit{Random Label Negative Learning} method. Then, we propose a
\textit{Bidirectional Uncertainty sampling} strategy by jointly estimating
uncertainty posed by both positive and negative learning to perform consistent
and stable sampling. BUAL successfully extends existing uncertainty-based AL
methods to complex open-set scenarios. Extensive experiments on multiple
datasets with varying openness demonstrate that BUAL achieves state-of-the-art
performance.
- Abstract(参考訳): オープンセットシナリオにおけるアクティブラーニング(al)は、既知のクラスと未知のクラスの両方のデータを含むラベルのないデータプールの最も価値のある例を特定するという、新しい挑戦を示している。
従来の手法では、信頼度の低い有益な例の選択を優先し、同様に信頼度の低い未知のクラスの例を誤って選択するリスクを負う。
最近のメソッドは最も可能性の高い既知の例を好んでおり、既にマスター済みの単純な例を選ぶリスクがある。
本稿では、既知のクラスと高情報の両方の可能性のあるサンプルを問合せし、buAL (textit{Bidirectional Uncertainty-based Active Learning}) フレームワークを提案する。
具体的には,提案する \textit{random label negative learning} 法を用いて,未知のクラス例を高信頼予測領域にプッシュすることで,これを実現する。
そこで我々は,正と負の両方の学習によって生じる不確実性を共同で推定し,一貫した,安定したサンプリングを行うことによって,‘textit{Bidirectional Uncertainty sample} 戦略を提案する。
BUALは既存の不確実性ベースのALメソッドを複雑なオープンセットシナリオに拡張することに成功した。
さまざまなオープン性を持つ複数のデータセットに対する大規模な実験は、BUALが最先端のパフォーマンスを達成することを示す。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Dirichlet-Based Coarse-to-Fine Example Selection For Open-Set Annotation [37.33424244520009]
本稿では,ディリクレに基づく大まかな実例選択(DCFS)戦略を提案する。
本手法では, 翻訳の不変性を損なうために, 単純なx-based obviousial Deep Learning (EDL)を導入している。
様々なオープンネス比データセットの実験は、DCFSが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-09-26T07:47:50Z) - Entropic Open-set Active Learning [30.91182106918793]
アクティブラーニング(AL)は、ラベルなしデータのプールから最も有用なアノテーションサンプルを選択することで、ディープモデルの性能を向上させることを目的としている。
クローズドセット設定での優れたパフォーマンスにもかかわらず、ほとんどのALメソッドは、ラベルなしデータが未知のカテゴリを含む実世界のシナリオで失敗する。
本稿では,未知分布と未知分布の両方を効果的に活用して,ALラウンド中の情報的サンプルを選択するエントロピー的オープンセットALフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-21T18:47:12Z) - Overcoming Overconfidence for Active Learning [1.2776312584227847]
本稿では,アクティブな学習シナリオで発生する過信の問題に対処する2つの新しい手法を提案する。
1つ目はCross-Mix-and-Mix(CMaM)と呼ばれる拡張戦略で、限られたトレーニング分布を拡張してモデルを校正することを目的としている。
2つ目は Ranked Margin Sampling (RankedMS) という選択戦略である。
論文 参考訳(メタデータ) (2023-08-21T09:04:54Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Uncertainty-Aware Bootstrap Learning for Joint Extraction on
Distantly-Supervised Data [36.54640096189285]
ブートストラップ学習は、インスタンスの不確実性が高ければ高いほど、モデルの信頼性は基礎的な真実と矛盾する可能性が高いという直感によって動機付けられます。
まず、まずインスタンスレベルのデータ不確実性を調べて、信頼度の高い最初の例を作成します。
ブートストラップ学習において,ノイズラベルが生成するモデル間不確実性を軽減するために,正規化器としての自己認識を提案する。
論文 参考訳(メタデータ) (2023-05-05T20:06:11Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。