論文の概要: Diffusion-based Deep Active Learning
- arxiv url: http://arxiv.org/abs/2003.10339v1
- Date: Mon, 23 Mar 2020 15:53:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 23:42:11.124046
- Title: Diffusion-based Deep Active Learning
- Title(参考訳): 拡散型深層アクティブラーニング
- Authors: Dan Kushnir, Luca Venturi
- Abstract要約: アクティブディープラーニングは、ラベル付けすべき最小限のトレーニングポイントを選択することを目的としており、最大モデルの精度を得る。
本稿では,分布が十分にマッピングされた場合に,探索から改良へ切り替える汎用的で効率的な基準を提案する。
我々の基準は、ニューラルネットワークによって提供されるデータセットの隠れ表現から構築されたグラフ上で、既存のラベル情報を拡散するプロセスに依存しています。
- 参考スコア(独自算出の注目度): 2.1701691499017812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The remarkable performance of deep neural networks depends on the
availability of massive labeled data. To alleviate the load of data annotation,
active deep learning aims to select a minimal set of training points to be
labelled which yields maximal model accuracy. Most existing approaches
implement either an `exploration'-type selection criterion, which aims at
exploring the joint distribution of data and labels, or a `refinement'-type
criterion which aims at localizing the detected decision boundaries. We propose
a versatile and efficient criterion that automatically switches from
exploration to refinement when the distribution has been sufficiently mapped.
Our criterion relies on a process of diffusing the existing label information
over a graph constructed from the hidden representation of the data set as
provided by the neural network. This graph representation captures the
intrinsic geometry of the approximated labeling function. The diffusion-based
criterion is shown to be advantageous as it outperforms existing criteria for
deep active learning.
- Abstract(参考訳): ディープニューラルネットワークの顕著なパフォーマンスは、大量のラベル付きデータの可用性に依存する。
データアノテーションの負荷を軽減するため、アクティブディープラーニングはラベル付けすべき最小限のトレーニングポイントを選択し、最大モデルの精度を得る。
既存のほとんどのアプローチでは、データとラベルの共分散を探求する「探索型選択基準」や、検出された決定境界のローカライズを目的とした「補充型選択基準」が実装されている。
本研究では,分布が十分にマッピングされたときに探索から精細化へ自動的に切り替える多用途で効率的な基準を提案する。
我々の基準は、ニューラルネットワークが提供するデータセットの隠れた表現から構築されたグラフ上で既存のラベル情報を拡散するプロセスに依存している。
このグラフ表現は、近似ラベル関数の内在幾何学をキャプチャする。
拡散に基づく基準は、深い能動的学習の既存の基準を上回り、有利であることが示されている。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - Classification Tree-based Active Learning: A Wrapper Approach [4.706932040794696]
本稿では,木構造にサンプリングプロセスを整理し,分類のためのラッパー能動的学習法を提案する。
ラベル付き標本の初期集合上に構築された分類木は、空間を低エントロピー領域に分解すると考えられる。
この適応は、既存のアクティブラーニング手法よりも大幅に向上することが証明されている。
論文 参考訳(メタデータ) (2024-04-15T17:27:00Z) - Mitigating Label Noise on Graph via Topological Sample Selection [72.86862597508077]
トポロジ情報を活用することで,グラフ内の情報的サンプル選択プロセスを促進できる$textitTopological Sample Selection$ (TSS)法を提案する。
提案手法は,対象のクリーン分布下での予測されるリスク上限の上限を最小化し,最先端のベースラインと比較して,提案手法の優位性を実験的に示す。
論文 参考訳(メタデータ) (2024-03-04T11:24:51Z) - XAL: EXplainable Active Learning Makes Classifiers Better Low-resource Learners [71.8257151788923]
低リソーステキスト分類のための新しい説明可能なアクティブラーニングフレームワーク(XAL)を提案する。
XALは分類器に対して、推論を正当化し、合理的な説明ができないラベルのないデータを掘り下げることを推奨している。
6つのデータセットの実験では、XALは9つの強いベースラインに対して一貫した改善を達成している。
論文 参考訳(メタデータ) (2023-10-09T08:07:04Z) - Exploring Data Redundancy in Real-world Image Classification through
Data Selection [20.389636181891515]
ディープラーニングモデルはトレーニングに大量のデータを必要とすることが多く、結果としてコストが増大する。
実世界の画像データの冗長性を調べるために,シナプスインテリジェンスと勾配ノルムに基づく2つのデータ評価指標を提案する。
オンラインおよびオフラインのデータ選択アルゴリズムは、検査されたデータ値に基づいてクラスタリングとグループ化によって提案される。
論文 参考訳(メタデータ) (2023-06-25T03:31:05Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - Dominant Set-based Active Learning for Text Classification and its
Application to Online Social Media [0.0]
本稿では,最小限のアノテーションコストで大規模未ラベルコーパスのトレーニングを行うための,プールベースのアクティブラーニング手法を提案する。
提案手法には調整すべきパラメータが一切ないため,データセットに依存しない。
本手法は,最先端のアクティブラーニング戦略と比較して高い性能を実現する。
論文 参考訳(メタデータ) (2022-01-28T19:19:03Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Active Learning on Attributed Graphs via Graph Cognizant Logistic
Regression and Preemptive Query Generation [37.742218733235084]
本稿では,属性グラフにおけるノード分類処理のための新しいグラフベース能動学習アルゴリズムを提案する。
提案アルゴリズムは,線形化グラフ畳み込みニューラルネットワーク(GCN)と等価なグラフ認識ロジスティック回帰を用いて,予測フェーズの誤差低減を最大化する。
5つの公開ベンチマークデータセットで実験を行い、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-07-09T18:00:53Z) - Deep Active Learning for Biased Datasets via Fisher Kernel
Self-Supervision [5.352699766206807]
アクティブラーニング(AL)は、データ要求型ディープニューラルネットワーク(DNN)のラベル付け作業を最小化する
自己教師型フィッシャーカーネル(FK)を用いた特徴密度マッチングのための低複雑さ手法を提案する。
本手法は,MNIST,SVHN,ImageNetの分類において,処理の1/10しか必要とせず,最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2020-03-01T03:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。