論文の概要: Dirichlet-Based Coarse-to-Fine Example Selection For Open-Set Annotation
- arxiv url: http://arxiv.org/abs/2409.17607v1
- Date: Thu, 26 Sep 2024 07:47:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-28 22:36:10.315734
- Title: Dirichlet-Based Coarse-to-Fine Example Selection For Open-Set Annotation
- Title(参考訳): ディリクレに基づくオープンセットアノテーションの選択
- Authors: Ye-Wen Wang, Chen-Chen Zong, Ming-Kun Xie, Sheng-Jun Huang,
- Abstract要約: 本稿では,ディリクレに基づく大まかな実例選択(DCFS)戦略を提案する。
本手法では, 翻訳の不変性を損なうために, 単純なx-based obviousial Deep Learning (EDL)を導入している。
様々なオープンネス比データセットの実験は、DCFSが最先端のパフォーマンスを達成することを示す。
- 参考スコア(独自算出の注目度): 37.33424244520009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning (AL) has achieved great success by selecting the most valuable examples from unlabeled data. However, they usually deteriorate in real scenarios where open-set noise gets involved, which is studied as open-set annotation (OSA). In this paper, we owe the deterioration to the unreliable predictions arising from softmax-based translation invariance and propose a Dirichlet-based Coarse-to-Fine Example Selection (DCFS) strategy accordingly. Our method introduces simplex-based evidential deep learning (EDL) to break translation invariance and distinguish known and unknown classes by considering evidence-based data and distribution uncertainty simultaneously. Furthermore, hard known-class examples are identified by model discrepancy generated from two classifier heads, where we amplify and alleviate the model discrepancy respectively for unknown and known classes. Finally, we combine the discrepancy with uncertainties to form a two-stage strategy, selecting the most informative examples from known classes. Extensive experiments on various openness ratio datasets demonstrate that DCFS achieves state-of-art performance.
- Abstract(参考訳): アクティブラーニング(AL)は、ラベルのないデータから最も価値のある例を選択することで大きな成功を収めた。
しかし、これらは通常、オープンセットアノテーション(OSA)として研究されるオープンセットノイズが関与する実際のシナリオで劣化する。
本稿では,ソフトマックスに基づく翻訳不変性から生じる信頼できない予測の劣化に起因し,ディリクレに基づく大まかな事例選択(DCFS)戦略を提案する。
本手法では,エビデンスに基づくデータと分布の不確かさを同時に考慮し,翻訳不変性を破り,未知のクラスを識別する。
さらに、2つの分類器ヘッドから生成されたモデル差分により、ハードな既知のクラス例を同定し、未知クラスと既知のクラスに対してそれぞれモデルの差分率を増幅し緩和する。
最後に、不確実性と不確実性を組み合わせて、2段階戦略を形成し、既知のクラスから最も情報に富んだ例を選択する。
様々なオープンネス比データセットに関する大規模な実験は、DCFSが最先端の性能を達成することを示す。
関連論文リスト
- Bidirectional Uncertainty-Based Active Learning for Open Set Annotation [28.624321743629825]
オープンセットのシナリオにおけるアクティブな学習は、最も価値のある例を特定するという、新たな課題を示している。
従来の手法では、信頼性の低い情報的事例の選択が優先されていた。
最近の手法は、最も可能性の高い既知の例を好んでいる。
双方向不確実性に基づくアクティブラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-23T08:59:04Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Gray Learning from Non-IID Data with Out-of-distribution Samples [45.788789553551176]
専門家が注釈を付けたとしても、トレーニングデータの完全性は保証されていない。
我々は,基本真実と相補的ラベルを両立させる新しいアプローチであるtextitGray Learningを導入する。
統計学習理論における我々のアプローチを基礎として、一般化誤差の境界を導出し、GLが非IID設定でも厳密な制約を達成できることを実証する。
論文 参考訳(メタデータ) (2022-06-19T10:46:38Z) - Active Learning for Open-set Annotation [38.739845944840454]
我々はLfOSAと呼ばれる新しいアクティブラーニングフレームワークを提案する。このフレームワークは、効果的なサンプリング戦略を用いて分類性能を高め、アノテーションのための既知のクラスからサンプルを正確に検出する。
実験結果から,提案手法は既知のクラスの選択精度を著しく向上し,アノテーションコストの低い分類精度を最先端の能動学習法よりも向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:11:51Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。