論文の概要: Adversarial Demonstration Learning for Low-resource NER Using Dual Similarity
- arxiv url: http://arxiv.org/abs/2507.15864v1
- Date: Sun, 13 Jul 2025 07:16:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.765548
- Title: Adversarial Demonstration Learning for Low-resource NER Using Dual Similarity
- Title(参考訳): 双対類似性を用いた低リソースNERの逆デモ学習
- Authors: Guowen Yuan, Tien-Hsuan Wu, Lianghao Xia, Ben Kao,
- Abstract要約: 低リソースシナリオにおける実演学習に基づく名前付きエンティティ認識の問題について検討する。
実演例を選択する既存の方法は意味的類似性に依存している。
機能の類似性は、大幅なパフォーマンス向上をもたらすことを示しています。
- 参考スコア(独自算出の注目度): 18.298608083596548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of named entity recognition (NER) based on demonstration learning in low-resource scenarios. We identify two issues in demonstration construction and model training. Firstly, existing methods for selecting demonstration examples primarily rely on semantic similarity; We show that feature similarity can provide significant performance improvement. Secondly, we show that the NER tagger's ability to reference demonstration examples is generally inadequate. We propose a demonstration and training approach that effectively addresses these issues. For the first issue, we propose to select examples by dual similarity, which comprises both semantic similarity and feature similarity. For the second issue, we propose to train an NER model with adversarial demonstration such that the model is forced to refer to the demonstrations when performing the tagging task. We conduct comprehensive experiments in low-resource NER tasks, and the results demonstrate that our method outperforms a range of methods.
- Abstract(参考訳): 低リソースシナリオにおける実演学習に基づく名前付きエンティティ認識(NER)の問題について検討する。
実演構築とモデルトレーニングにおける2つの課題を同定する。
まず、実演例を選択するための既存の手法は、主に意味的類似性に依存している。
次に、NERタグのデモ例を参照する能力は一般的に不十分であることを示す。
これらの問題を効果的に解決する実証・訓練手法を提案する。
第1号では、意味的類似性と特徴的類似性の両方を含む二重類似性による例を選択することを提案する。
第2の課題では、タグ付けタスクの実行時に、モデルがデモを参照するように、逆デモ付きNERモデルをトレーニングすることを提案する。
我々は,低リソースNERタスクにおける総合的な実験を行い,本手法が様々な手法より優れていることを示す。
関連論文リスト
- PICLe: Pseudo-Annotations for In-Context Learning in Low-Resource Named Entity Detection [56.916656013563355]
In-context Learning (ICL)により、大規模言語モデルでは、デモをほとんど使わずにタスクを実行することができる。
PICLeは、ノイズの多い擬似アノテーション付き実演によるインコンテキスト学習のためのフレームワークである。
バイオメディカルな5つのNEDデータセット上でPICLeを評価し,PICLeが低リソース環境でICLより優れていることを示す。
論文 参考訳(メタデータ) (2024-12-16T16:09:35Z) - DemoRank: Selecting Effective Demonstrations for Large Language Models in Ranking Task [24.780407347867943]
本稿では,文節ランキングタスクにおいて,コンテキスト内デモを適切に選択する方法について検討する。
ランキングタスクのためのデモ選択フレームワークであるDemoRankを提案する。
論文 参考訳(メタデータ) (2024-06-24T06:10:13Z) - Demonstration Notebook: Finding the Most Suited In-Context Learning Example from Interactions [8.869100154323643]
実験ノート」と呼ばれる新しい物体を中心に構築された新しいプロンプトエンジニアリングワークフローを提案する。
このノートブックは、LLMの過去のインタラクションから情報を収集して再利用することで、質問に対して最も適したコンテキスト内学習例を特定するのに役立つ。
実験により, 提案手法は, 自動的な実演構築と選択において, 既存の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-06-16T10:02:20Z) - Enhancing Chain of Thought Prompting in Large Language Models via Reasoning Patterns [26.641713417293538]
Chain of Thought (CoT) は言語モデルに論理的推論を奨励する。
我々は,CoTの促進効果を高めるために推論パターンを活用することを提案する。
論文 参考訳(メタデータ) (2024-04-23T07:50:00Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Behavioral Cloning via Search in Embedded Demonstration Dataset [0.15293427903448023]
振る舞いクローンは、行動ポリシーを学ぶためにデモのデータセットを使用する。
遅延スペースを使用して、デモデータセットをインデックス化し、関連するエクスペリエンスに即座にアクセスし、これらの状況から振る舞いをコピーします。
提案手法は,マインクラフト環境において,有意義なデモンストレーションを効果的に再現し,エージェントの人間的行動を示す。
論文 参考訳(メタデータ) (2023-06-15T12:25:41Z) - Skill Disentanglement for Imitation Learning from Suboptimal
Demonstrations [60.241144377865716]
我々は、小さなクリーンな実演セットと大きなノイズセットの両方で、準最適実演の模倣を考える。
本稿では,様々な品質のアクションプリミティブを異なるスキルに符号化し,サブデモレーションレベルの評価と模倣を行う手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T17:24:37Z) - In-Context Demonstration Selection with Cross Entropy Difference [95.21947716378641]
大規模言語モデル(LLM)は、ゼロショットタスクのパフォーマンスを改善するためにコンテキスト内デモを使用することができる。
テキスト内デモを選択するためのクロスエントロピー差分法(CED)を提案する。
論文 参考訳(メタデータ) (2023-05-24T05:04:00Z) - Robustness of Demonstration-based Learning Under Limited Data Scenario [54.912936555876826]
実証に基づく学習は、限られたデータシナリオ下で事前訓練された言語モデルの能力を刺激する大きな可能性を示している。
実演と予測の間に明確な整合性がないため、なぜこのような実演が学習プロセスに有益なのかは不明だ。
本稿では,実証に基づくシーケンスラベリングの頑健さを深く掘り下げるために,標準情報から直感的に有用な情報を徐々に取り除き,病理デモを設計する。
論文 参考訳(メタデータ) (2022-10-19T16:15:04Z) - Let Me Check the Examples: Enhancing Demonstration Learning via Explicit
Imitation [9.851250429233634]
デモ学習は、いくつかのショット設定で回答されたデモを提供することで、迅速な予測を導くことを目的としている。
既存の作業は、追加操作なしでプロンプトテンプレートのデモとして、回答された例のみをコーポラ化する。
我々は、人間のレビュー行動を明確に模倣することで、実証学習を強化するためにImitation DEMOnstration Learning (Imitation-Demo)を導入した。
論文 参考訳(メタデータ) (2022-08-31T06:59:36Z) - Rethinking the Role of Demonstrations: What Makes In-Context Learning
Work? [112.72413411257662]
大規模言語モデル(LM)は、いくつかのインプットラベルペア(デモ)を条件付けして、新しいインプットの予測を行うことで、インコンテキストで学習することができる。
実演のラベルをランダムに置き換えることは、パフォーマンスをほとんど損なうものではない。
デモの他の側面が、エンドタスクのパフォーマンスの主要な要因であることに気付きました。
論文 参考訳(メタデータ) (2022-02-25T17:25:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。