論文の概要: Active PETs: Active Data Annotation Prioritisation for Few-Shot Claim
Verification with Pattern Exploiting Training
- arxiv url: http://arxiv.org/abs/2208.08749v1
- Date: Thu, 18 Aug 2022 10:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 13:06:10.252094
- Title: Active PETs: Active Data Annotation Prioritisation for Few-Shot Claim
Verification with Pattern Exploiting Training
- Title(参考訳): アクティブPET:パターン爆発訓練によるFew-Shotクレーム検証のためのアクティブデータアノテーション優先
- Authors: Xia Zeng, Arkaitz Zubiaga
- Abstract要約: アクティブPET(Active PETs)は、アノテーションの候補として非ラベルのデータを積極的に選択する重み付きアプローチである。
データ選択にActive PETを使用すると、最先端のアクティブな学習方法よりも一貫した改善が見られた。
提案手法により,ラベル付きデータの少ないインスタンスを効果的に選択することが可能となる。
- 参考スコア(独自算出の注目度): 21.842139093124512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To mitigate the impact of data scarcity on fact-checking systems, we focus on
few-shot claim verification. Despite recent work on few-shot classification by
proposing advanced language models, there is a dearth of research in data
annotation prioritisation that improves the selection of the few shots to be
labelled for optimal model performance. We propose Active PETs, a novel
weighted approach that utilises an ensemble of Pattern Exploiting Training
(PET) models based on various language models, to actively select unlabelled
data as candidates for annotation. Using Active PETs for data selection shows
consistent improvement over the state-of-the-art active learning method, on two
technical fact-checking datasets and using six different pretrained language
models. We show further improvement with Active PETs-o, which further
integrates an oversampling strategy. Our approach enables effective selection
of instances to be labelled where unlabelled data is abundant but resources for
labelling are limited, leading to consistently improved few-shot claim
verification performance. Our code will be available upon publication.
- Abstract(参考訳): ファクトチェックシステムにおけるデータ不足の影響を軽減するため,数発のクレーム検証に注目する。
近年、先進言語モデルの提案による数ショット分類の研究にもかかわらず、最適なモデル性能を示すためにラベル付けされる数少ないショットの選択を改善するデータアノテーション優先順位付けの研究が進められている。
本研究では,様々な言語モデルに基づくパターン活用トレーニング(pet)モデルのアンサンブルを用いて,アノテーション候補としてラベルなしデータを積極的に選択する,新しい重み付け手法であるactive petsを提案する。
データ選択にActive PETを使うことは、最先端のアクティブな学習方法、技術的事実チェックデータセットの2つ、トレーニング済みの6つの言語モデルの使用において、一貫した改善を示す。
オーバサンプリング戦略を統合したActive PETs-oのさらなる改良について述べる。
提案手法は,ラベル付きデータが多く,ラベル付けのためのリソースが限られている場合に,効果的にラベル付け可能なインスタンスの選択を可能にする。
私たちのコードは出版時に利用可能になります。
関連論文リスト
- BoostAdapter: Improving Vision-Language Test-Time Adaptation via Regional Bootstrapping [64.8477128397529]
本稿では,テスト時間適応フレームワークを提案する。
我々は、インスタンスに依存しない履歴サンプルとインスタンスを意識したブースティングサンプルから特徴を検索するための軽量なキー値メモリを維持している。
理論的には,本手法の背後にある合理性を正当化し,アウト・オブ・ディストリビューションとクロスドメイン・データセットの両方において,その有効性を実証的に検証する。
論文 参考訳(メタデータ) (2024-10-20T15:58:43Z) - Learn from the Learnt: Source-Free Active Domain Adaptation via Contrastive Sampling and Visual Persistence [60.37934652213881]
ドメイン適応(DA)は、ソースドメインから関連するターゲットドメインへの知識伝達を容易にする。
本稿では、ソースデータフリーなアクティブドメイン適応(SFADA)という実用的なDAパラダイムについて検討する。
本稿では,学習者学習(LFTL)というSFADAの新たなパラダイムを紹介し,学習した学習知識を事前学習モデルから活用し,余分なオーバーヘッドを伴わずにモデルを積極的に反復する。
論文 参考訳(メタデータ) (2024-07-26T17:51:58Z) - Self-Training for Sample-Efficient Active Learning for Text Classification with Pre-Trained Language Models [3.546617486894182]
我々は,4つのテキスト分類ベンチマークで評価した,新しい効果的な自己学習戦略であるHASTを紹介する。
その結果、4つのデータセットのうち3つに対して、再現された自己学習手法よりも優れており、以前の実験に匹敵する分類結果が得られることがわかった。
論文 参考訳(メタデータ) (2024-06-13T15:06:11Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - ALLWAS: Active Learning on Language models in WASserstein space [13.35098213857704]
医学などのいくつかの領域では、ラベル付きトレーニングデータの不足が一般的な問題である。
アクティブな学習は、ラベルの予算が限られている場合、パフォーマンスを高めるのに役立ちます。
言語モデルにおけるアクティブ学習のためのサブモジュール最適化と最適輸送に基づくサンプリング手法を用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-03T18:11:07Z) - Bayesian Active Learning with Pretrained Language Models [9.161353418331245]
Active Learning (AL)は、ラベルなしデータのプールからアノテーションのためのデータを反復的に選択する手法である。
以前のALアプローチは、イテレーションごとにゼロからトレーニングされるタスク固有のモデルに制限されている。
BALM;Bayesian Active Learning with pretrained language modelを紹介します。
論文 参考訳(メタデータ) (2021-04-16T19:07:31Z) - Just Label What You Need: Fine-Grained Active Selection for Perception
and Prediction through Partially Labeled Scenes [78.23907801786827]
提案手法は,コストに配慮した手法と,部分的にラベル付けされたシーンを通じて詳細なサンプル選択を可能にする一般化を導入している。
実世界の大規模自動運転データセットに関する我々の実験は、微粒な選択が知覚、予測、下流計画タスクのパフォーマンスを向上させることを示唆している。
論文 参考訳(メタデータ) (2021-04-08T17:57:41Z) - Improving and Simplifying Pattern Exploiting Training [81.77863825517511]
Pattern Exploiting Training (PET)は、数発学習にパターンを利用する最近のアプローチである。
本稿では,未ラベルデータのないショットラーニングに焦点をあて,ADAPETを導入する。
ADAPETは、タスク固有のラベルなしデータなしでSuperGLUE上のPETより優れています。
論文 参考訳(メタデータ) (2021-03-22T15:52:45Z) - Active and Incremental Learning with Weak Supervision [7.2288756536476635]
本研究では,逐次学習方式と能動学習方式の組み合わせについて述べる。
オブジェクト検出タスクは、PASCAL VOCデータセット上で連続的な探索コンテキストで評価される。
また,実世界の生物多様性アプリケーションにおいて,能動的・漸進的学習に基づく弱教師付きシステムを検証する。
論文 参考訳(メタデータ) (2020-01-20T13:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。