論文の概要: Data-efficient Active Learning for Structured Prediction with Partial
Annotation and Self-Training
- arxiv url: http://arxiv.org/abs/2305.12634v1
- Date: Mon, 22 May 2023 01:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 19:06:56.702000
- Title: Data-efficient Active Learning for Structured Prediction with Partial
Annotation and Self-Training
- Title(参考訳): 部分アノテーションと自己学習を用いた構造化予測のためのデータ効率能動的学習
- Authors: Zhisong Zhang, Emma Strubell, Eduard Hovy
- Abstract要約: 本稿では,能動的学習を用いた構造化ラベル空間のアノテーションコストを削減できる実用的手法を提案する。
提案手法は部分アノテーションを利用して,アノテーションの最も情報性の高い部分構造のみを選択することで,ラベル付けコストを削減する。
我々はまた、自己学習を利用して、現在のモデルの自動予測を、注釈のないサブ構造のための擬似ラベルとして組み込む。
- 参考スコア(独自算出の注目度): 14.476936052458358
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work we propose a pragmatic method that reduces the annotation cost
for structured label spaces using active learning. Our approach leverages
partial annotation, which reduces labeling costs for structured outputs by
selecting only the most informative substructures for annotation. We also
utilize selftraining to incorporate the current model's automatic predictions
as pseudo-labels for unannotated sub-structures. A key challenge in effectively
combining partial annotation with self-training to reduce annotation cost is
determining which sub-structures to select to label. To address this challenge
we adopt an error estimator to decide the partial selection ratio adaptively
according to the current model's capability. In evaluations spanning four
structured prediction tasks, we show that our combination of partial annotation
and self-training using an adaptive selection ratio reduces annotation cost
over strong full annotation baselines under a fair comparison scheme that takes
reading time into consideration.
- Abstract(参考訳): 本研究では,アクティブラーニングを用いた構造化ラベル空間のアノテーションコストを削減できる実用的な手法を提案する。
提案手法は部分アノテーションを利用して,アノテーションの最も情報性の高い部分構造のみを選択することで,構造化出力のラベル付けコストを削減する。
また,本モデルの自動予測を無記名部分構造のための擬似ラベルとして組み込むために,自己学習を利用する。
アノテーションのコストを削減するために、部分アノテーションと自己学習を効果的に組み合わせる上で重要な課題は、どのサブ構造をラベルにするかを決定することである。
この課題に対処するために、現在のモデルの性能に応じて部分選択比を適応的に決定する誤差推定器を採用する。
4つの構造化予測タスクにまたがる評価において、適応選択比を用いた部分アノテーションと自己学習の組み合わせにより、読み出し時間を考慮した公正な比較スキームの下で、強い全アノテーションベースラインよりもアノテーションコストを低減できることを示す。
関連論文リスト
- Sub-SA: Strengthen In-context Learning via Submodular Selective Annotation [4.846839863393725]
サブモジュールに基づく選択的アノテーション法であるSub-SA(Submodular Selective )を提案する。
Sub-SAの目的は、アノテーションのコストを削減しつつ、コンテキスト内サンプルの品質を向上させることである。
また、ラベルなしデータセットの多様性と代表性のバランスを改善するために、RPR(Reward and Penalty Regularization)を提案する。
論文 参考訳(メタデータ) (2024-07-08T07:47:30Z) - Enhancing Text Classification through LLM-Driven Active Learning and Human Annotation [2.0411082897313984]
本研究では,人間のアノテータと大規模言語モデルを統合する新しい手法を提案する。
提案フレームワークは, モデルの不確実性レベルに応じて, 人間のアノテーションとLLMの出力を統合する。
実験結果から, モデル精度の維持・改善を図りながら, データアノテーションに関連するコストを大幅に削減した。
論文 参考訳(メタデータ) (2024-06-17T21:45:48Z) - One-bit Supervision for Image Classification: Problem, Solution, and
Beyond [114.95815360508395]
本稿では,ラベルの少ない新しい学習環境である,画像分類のための1ビット監督について述べる。
多段階学習パラダイムを提案し、負ラベル抑圧を半教師付き半教師付き学習アルゴリズムに組み込む。
複数のベンチマークにおいて、提案手法の学習効率は、フルビットの半教師付き監視手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-26T07:39:00Z) - IDEAL: Influence-Driven Selective Annotations Empower In-Context
Learners in Large Language Models [66.32043210237768]
本稿では,影響駆動型選択的アノテーション手法を提案する。
アノテーションのコストを最小限に抑えつつ、コンテキスト内サンプルの品質を向上させることを目的としている。
様々なベンチマークで提案手法の優位性を確認する実験を行った。
論文 参考訳(メタデータ) (2023-10-16T22:53:54Z) - Full or Weak annotations? An adaptive strategy for budget-constrained
annotation campaigns [3.1318537187387787]
セグメンテーションデータセットのアノテーション戦略を決定する新しい手法を提案する。
提案手法は, 分割と分類アノテーションの比率を連続的に決定し, 予算制約の収集を行う。
実験では、さまざまなアノテーション予算とデータセットに対して最適に非常に近いアノテーションが得られたことを示します。
論文 参考訳(メタデータ) (2023-03-21T08:41:54Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Query-Adaptive Predictive Inference with Partial Labels [0.0]
ブラックボックス予測モデル上に部分的にラベル付けされたデータのみを用いて予測集合を構築する新しい手法を提案する。
我々の実験は、予測セット構築の有効性と、よりフレキシブルなユーザ依存損失フレームワークの魅力を強調した。
論文 参考訳(メタデータ) (2022-06-15T01:48:42Z) - Active Learning with Weak Supervision for Gaussian Processes [12.408125305560274]
得られたアノテーションの精度を選択する能動的学習アルゴリズムを提案する。
アクティブな学習ループにおいて,アノテーションの精度を調整できることのメリットを実証的に示す。
論文 参考訳(メタデータ) (2022-04-18T14:27:31Z) - Active Learning for Coreference Resolution using Discrete Annotation [76.36423696634584]
我々は、コア参照解決におけるアクティブラーニングのためのペアワイズアノテーションを改善した。
提案された参照ペアがコアフェレントでないと判断された場合、アノテータに参照アンテセントを識別するよう依頼する。
既存のベンチマークコアベンチマークデータセットを用いた実験では、この追加質問からの信号が人間のアノテーション時間当たりの大幅なパフォーマンス向上につながることが示された。
論文 参考訳(メタデータ) (2020-04-28T17:17:11Z) - Self-Supervised Tuning for Few-Shot Segmentation [82.32143982269892]
Few-shotのセグメンテーションは、アノテートされたサンプルがほとんどない各画像ピクセルにカテゴリラベルを割り当てることを目的としている。
既存のメタラーニング手法では, 画像から抽出した視覚的特徴を埋め込み空間に埋め込むと, カテゴリー別識別記述子の生成に失敗する傾向にある。
本稿では,複数のエピソードにまたがる潜在特徴の分布を,自己分割方式に基づいて動的に調整する適応型フレームワークチューニングを提案する。
論文 参考訳(メタデータ) (2020-04-12T03:53:53Z) - Structured Prediction with Partial Labelling through the Infimum Loss [85.4940853372503]
弱い監督の目標は、収集コストの安いラベル付け形式のみを使用してモデルを学習できるようにすることである。
これは、各データポイントに対して、実際のものを含むラベルのセットとして、監督がキャストされる不完全なアノテーションの一種です。
本稿では、構造化された予測と、部分的なラベリングを扱うための無限損失の概念に基づく統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2020-03-02T13:59:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。