論文の概要: Influence Selection for Active Learning
- arxiv url: http://arxiv.org/abs/2108.09331v1
- Date: Fri, 20 Aug 2021 18:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 16:00:11.732168
- Title: Influence Selection for Active Learning
- Title(参考訳): 能動学習における影響選択
- Authors: Zhuoming Liu, Hao Ding, Huaping Zhong, Weijia Li, Jifeng Dai, Conghui
He
- Abstract要約: モデル性能に最も好意的な影響を与える未ラベルサンプルを選定するISAL(Empfect Selection for Active Learning)を提案する。
ISALは、異なるデータセットで異なるタスクに対して異なるアクティブな学習設定で最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 18.84939869188145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing active learning methods select the samples by evaluating the
sample's uncertainty or its effect on the diversity of labeled datasets based
on different task-specific or model-specific criteria. In this paper, we
propose the Influence Selection for Active Learning(ISAL) which selects the
unlabeled samples that can provide the most positive Influence on model
performance. To obtain the Influence of the unlabeled sample in the active
learning scenario, we design the Untrained Unlabeled sample Influence
Calculation(UUIC) to estimate the unlabeled sample's expected gradient with
which we calculate its Influence. To prove the effectiveness of UUIC, we
provide both theoretical and experimental analyses. Since the UUIC just depends
on the model gradients, which can be obtained easily from any neural network,
our active learning algorithm is task-agnostic and model-agnostic. ISAL
achieves state-of-the-art performance in different active learning settings for
different tasks with different datasets. Compared with previous methods, our
method decreases the annotation cost at least by 12%, 13% and 16% on CIFAR10,
VOC2012 and COCO, respectively.
- Abstract(参考訳): 既存のアクティブラーニング手法では、異なるタスクやモデル固有の基準に基づいて、サンプルの不確実性やラベル付きデータセットの多様性の影響を評価してサンプルを選択する。
本稿では,モデル性能に最も有意な影響を与える非ラベルサンプルを選択するアクティブラーニング(isal)に対する影響選択を提案する。
アクティブな学習シナリオにおける未ラベルサンプルの影響を得るために,未ラベルサンプル影響計算(Untrained Unlabeled sample Influence calculated, UUIC)を設計し,その影響を計算した未ラベルサンプルの予測勾配を推定する。
UUICの有効性を証明するため,理論的および実験的解析を行った。
UUICは任意のニューラルネットワークから容易に得られるモデル勾配に依存するため、我々のアクティブラーニングアルゴリズムはタスク非依存でモデル非依存である。
ISALは、異なるデータセットで異なるタスクに対して異なるアクティブな学習設定で最先端のパフォーマンスを達成する。
従来の手法と比較して,CIFAR10,VOC2012,COCOでは,アノテーションのコストを少なくとも12%,13%,16%削減する。
関連論文リスト
- Understanding Uncertainty-based Active Learning Under Model Mismatch [16.361254095103615]
不確実性に基づくアクティブラーニング(UAL)は、予測の不確実性に基づいて選択されたラベル付きプールから重要なサンプルのラベル(s)をクエリすることで動作する。
UALの有効性は、モデル容量と、採用されている不確実性ベースの取得機能に依存する。
論文 参考訳(メタデータ) (2024-08-24T23:37:08Z) - Provably Neural Active Learning Succeeds via Prioritizing Perplexing Samples [53.95282502030541]
ニューラルネットワークベースのアクティブラーニング(NAL)は、ニューラルネットワークを使用してサンプルの小さなサブセットを選択してトレーニングする、費用対効果の高いデータ選択技術である。
我々は、機能学習の観点から、両方のクエリ基準ベースのNALの成功について、統一的な説明を提供することにより、一歩前進させようとする。
論文 参考訳(メタデータ) (2024-06-06T10:38:01Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - BAL: Balancing Diversity and Novelty for Active Learning [53.289700543331925]
多様な不確実なデータのバランスをとるために適応的なサブプールを構築する新しいフレームワークであるBalancing Active Learning (BAL)を導入する。
我々のアプローチは、広く認識されているベンチマークにおいて、確立されたすべてのアクティブな学習方法より1.20%優れています。
論文 参考訳(メタデータ) (2023-12-26T08:14:46Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Optimal Sample Selection Through Uncertainty Estimation and Its
Application in Deep Learning [22.410220040736235]
コアセット選択とアクティブラーニングの両方に対処するための理論的に最適な解を提案する。
提案手法であるCOPSは,サブサンプルデータに基づいてトレーニングされたモデルの損失を最小限に抑えるために設計されている。
論文 参考訳(メタデータ) (2023-09-05T14:06:33Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Improving Robustness and Efficiency in Active Learning with Contrastive
Loss [13.994967246046008]
本稿では,教師付き環境下での能動学習に比較学習の損失を生かして,教師付きコントラッシブ・アクティブ・ラーニング(SCAL)を提案する。
多様な特徴表現の偏りのない情報的データサンプルを選択するために,能動的学習における効率的なクエリ戦略を提案する。
論文 参考訳(メタデータ) (2021-09-13T21:09:21Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Deep Active Learning for Sequence Labeling Based on Diversity and
Uncertainty in Gradient [5.33024001730262]
シーケンスラベリングタスクにおいて、不確実性と多様性の両方を組み込んだ場合、アクティブラーニングを用いてラベル付きトレーニングデータの量を削減することができることを示す。
我々は,複数のタスク,データセット,モデル,そして古典的不確実性に基づくサンプリングと多様性に基づくサンプリングを一貫して上回る勾配埋め込みアプローチにおいて,重み付けされた多様性を選択することで,シーケンスベースアプローチの効果を検討した。
論文 参考訳(メタデータ) (2020-11-27T06:03:27Z) - Ask-n-Learn: Active Learning via Reliable Gradient Representations for
Image Classification [29.43017692274488]
深い予測モデルは、ラベル付きトレーニングデータという形で人間の監督に依存する。
Ask-n-Learnは,各アルゴリズムで推定されたペスドラベルを用いて得られる勾配埋め込みに基づく能動的学習手法である。
論文 参考訳(メタデータ) (2020-09-30T05:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。