論文の概要: Inconsistency-Based Data-Centric Active Open-Set Annotation
- arxiv url: http://arxiv.org/abs/2401.04923v1
- Date: Wed, 10 Jan 2024 04:18:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-11 15:28:44.069208
- Title: Inconsistency-Based Data-Centric Active Open-Set Annotation
- Title(参考訳): 不整合に基づくデータ中心型アクティブオープンセットアノテーション
- Authors: Ruiyu Mao, Ouyang Xu, Yunhui Guo
- Abstract要約: NEATは、オープンセットデータを積極的にアノテートするデータ中心のアクティブラーニング手法である。
NEATは、アクティブなオープンセットアノテーションのための最先端のアクティブな学習方法よりも、はるかに優れたパフォーマンスを実現している。
- 参考スコア(独自算出の注目度): 6.652785290214744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active learning is a commonly used approach that reduces the labeling effort
required to train deep neural networks. However, the effectiveness of current
active learning methods is limited by their closed-world assumptions, which
assume that all data in the unlabeled pool comes from a set of predefined known
classes. This assumption is often not valid in practical situations, as there
may be unknown classes in the unlabeled data, leading to the active open-set
annotation problem. The presence of unknown classes in the data can
significantly impact the performance of existing active learning methods due to
the uncertainty they introduce. To address this issue, we propose a novel
data-centric active learning method called NEAT that actively annotates
open-set data. NEAT is designed to label known classes data from a pool of both
known and unknown classes unlabeled data. It utilizes the clusterability of
labels to identify the known classes from the unlabeled pool and selects
informative samples from those classes based on a consistency criterion that
measures inconsistencies between model predictions and local feature
distribution. Unlike the recently proposed learning-centric method for the same
problem, NEAT is much more computationally efficient and is a data-centric
active open-set annotation method. Our experiments demonstrate that NEAT
achieves significantly better performance than state-of-the-art active learning
methods for active open-set annotation.
- Abstract(参考訳): アクティブな学習は、ディープニューラルネットワークのトレーニングに必要なラベル付けの労力を減らすために一般的に使用されるアプローチである。
しかし、現在のアクティブラーニング手法の有効性は、未ラベルプール内の全てのデータが事前に定義された既知のクラスから来ていると仮定するクローズドワールド仮定によって制限される。
この仮定は、ラベル付けされていないデータに未知のクラスが存在し、アクティブなオープンセットアノテーション問題を引き起こすため、実際は有効ではないことが多い。
データに未知のクラスが存在することは、それらが導入する不確実性により、既存のアクティブラーニング手法の性能に大きな影響を及ぼす可能性がある。
この問題に対処するために,オープンセットデータを積極的に注釈付けするNEATと呼ばれる新しいデータ中心型アクティブラーニング手法を提案する。
NEATは、既知のクラスデータと未知のクラスデータのプールから、既知のクラスデータをラベル付けするように設計されている。
ラベルなしプールから既知のクラスを識別するためにラベルのクラスタ化可能性を利用し、モデル予測と局所的な特徴分布の不一致を測定する一貫性基準に基づいて、それらのクラスから有益なサンプルを選択する。
最近提案された学習中心の手法とは異なり、NEATはより計算効率が高く、データ中心のアクティブオープンセットアノテーションである。
本実験は,アクティブなオープンセットアノテーションのための最先端のアクティブラーニング手法よりも優れた性能を実現することを実証する。
関連論文リスト
- XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised Learning [69.81438976273866]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Reinforced Meta Active Learning [11.913086438671357]
本稿では,データから直接情報提供度を学習する,オンラインストリームに基づくメタアクティブ学習手法を提案する。
本手法は、強化学習に基づいて、エピソードポリシー検索と文脈的バンディットアプローチを組み合わせたものである。
本研究では,本手法が既存の最先端手法よりも効率的にトレーニングサンプルを選択できることを実データで示す。
論文 参考訳(メタデータ) (2022-03-09T08:36:54Z) - Active Learning for Open-set Annotation [38.739845944840454]
我々はLfOSAと呼ばれる新しいアクティブラーニングフレームワークを提案する。このフレームワークは、効果的なサンプリング戦略を用いて分類性能を高め、アノテーションのための既知のクラスからサンプルを正確に検出する。
実験結果から,提案手法は既知のクラスの選択精度を著しく向上し,アノテーションコストの低い分類精度を最先端の能動学習法よりも向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:11:51Z) - OpenCoS: Contrastive Semi-supervised Learning for Handling Open-set
Unlabeled Data [65.19205979542305]
ラベル付けされていないデータには、実際にはクラス外のサンプルが含まれる。
OpenCoSは、このリアルな半教師付き学習シナリオを扱う方法である。
論文 参考訳(メタデータ) (2021-06-29T06:10:05Z) - Data Shapley Valuation for Efficient Batch Active Learning [21.76249748709411]
Active Data Shapley(ADS)は、バッチアクティブラーニングのためのフィルタリングレイヤーです。
ADSは、ラベルのないデータのプールが現実世界の異常を示す場合に特に効果的であることを示す。
論文 参考訳(メタデータ) (2021-04-16T18:53:42Z) - A Novel Perspective for Positive-Unlabeled Learning via Noisy Labels [49.990938653249415]
本研究では,初期疑似ラベルを雑音ラベルデータとして用いる非ラベルデータに割り当て,雑音ラベルデータを用いて深層ニューラルネットワークを訓練する手法を提案する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,最先端の手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2021-03-08T11:46:02Z) - Active Learning Under Malicious Mislabeling and Poisoning Attacks [2.4660652494309936]
ディープニューラルネットワークは通常、トレーニングのために大きなラベル付きデータセットを必要とする。
これらのデータのほとんどはラベルなしであり、データ中毒攻撃に弱い。
本稿では,ラベル付きインスタンスの少ない効率的な能動的学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-01T03:43:36Z) - Active Learning for Node Classification: The Additional Learning Ability
from Unlabelled Nodes [33.97571297149204]
ラベル付け予算が限られているため、active learningはラベル付けするノードを慎重に選択することで、パフォーマンスの向上を目指している。
本研究は,ノード分類のための既存のアクティブラーニング手法が,単純な手法でかなり優れていることを示す。
ノード分類のための新しい潜在空間クラスタリングに基づくアクティブラーニング手法(LSCALE)を提案する。
論文 参考訳(メタデータ) (2020-12-13T13:59:48Z) - Exploratory Machine Learning with Unknown Unknowns [60.78953456742171]
本稿では,他のラベルと誤認識されたトレーニングデータに未知のクラスが存在するという,新たな問題設定について検討する。
本研究では,潜在的に隠蔽されたクラスを発見するために,機能空間を積極的に拡張することにより,学習データを調べ,調査する探索機械学習を提案する。
論文 参考訳(メタデータ) (2020-02-05T02:06:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。