論文の概要: IDIAPers @ Causal News Corpus 2022: Efficient Causal Relation
Identification Through a Prompt-based Few-shot Approach
- arxiv url: http://arxiv.org/abs/2209.03895v1
- Date: Thu, 8 Sep 2022 16:03:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-09 12:25:39.437109
- Title: IDIAPers @ Causal News Corpus 2022: Efficient Causal Relation
Identification Through a Prompt-based Few-shot Approach
- Title(参考訳): IDIAPers @ Causal News Corpus 2022: Prompt-based Few-shot Approachによる効果的な因果関係同定
- Authors: Sergio Burdisso, Juan Zuluaga-Gomez, Esau Villatoro-Tello, Martin
Fajcik, Muskaan Singh, Pavel Smrz, Petr Motlicek
- Abstract要約: 我々は、微調整言語モデル(LM)のための単純だが相補的手法のセットを活用することで、因果関係同定(CRI)タスクに対処する。
我々は、CRIタスクをマスキング言語モデリング問題(MLM)として扱う微調整LMのプロンプトベースの予測手法に従う。
本手法の性能を,データセット全体で訓練されたアンサンブル手法と比較する。
- 参考スコア(独自算出の注目度): 3.4423596432619754
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we describe our participation in the subtask 1 of CASE-2022,
Event Causality Identification with Casual News Corpus. We address the Causal
Relation Identification (CRI) task by exploiting a set of simple yet
complementary techniques for fine-tuning language models (LMs) on a small
number of annotated examples (i.e., a few-shot configuration). We follow a
prompt-based prediction approach for fine-tuning LMs in which the CRI task is
treated as a masked language modeling problem (MLM). This approach allows LMs
natively pre-trained on MLM problems to directly generate textual responses to
CRI-specific prompts. We compare the performance of this method against
ensemble techniques trained on the entire dataset. Our best-performing
submission was trained only with 256 instances per class, a small portion of
the entire dataset, and yet was able to obtain the second-best precision
(0.82), third-best accuracy (0.82), and an F1-score (0.85) very close to what
was reported by the winner team (0.86).
- Abstract(参考訳): 本稿では,CASE-2022のサブタスク1,Event Causality Identification with Casual News Corpusへの参加について述べる。
我々は,少数のアノテートされた例(例えば,数ショット構成)で,微調整言語モデル(lms)のための単純かつ補完的な手法を駆使して,因果関係識別(cri)タスクに対処する。
我々は、CRIタスクをマスキング言語モデリング問題(MLM)として扱う、微調整LMのプロンプトベースの予測手法に従う。
このアプローチにより、MLM問題に対してネイティブに事前訓練されたLMは、CRI固有のプロンプトに対するテキスト応答を直接生成できる。
本手法の性能をデータセット全体で訓練されたアンサンブル手法と比較する。
最高のパフォーマンスは、クラス毎256インスタンス、データセット全体のごく一部でしかトレーニングされず、第2のベスト精度(0.82)、第3のベスト精度(0.82)、F1スコア(0.85)を勝者チーム(0.86)に非常に近い精度で取得できたことです。
関連論文リスト
- Fine-tuned Large Language Models (LLMs): Improved Prompt Injection Attacks Detection [6.269725911814401]
大きな言語モデル(LLM)は、幅広い言語ベースのタスクに対処する能力が大きく進歩しているため、人気ツールになりつつある。
しかし、LSMのアプリケーションはインジェクション攻撃に対して非常に脆弱であり、致命的な問題を引き起こす。
このプロジェクトでは,インジェクションのインジェクション攻撃に関連するセキュリティ脆弱性について検討する。
論文 参考訳(メタデータ) (2024-10-28T00:36:21Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Low-resource classification of mobility functioning information in
clinical sentences using large language models [0.0]
本研究は,臨床ノートから機能的情報の存在を正確に識別する,公開可能な大規模言語モデル(LLM)の能力を評価するものである。
我々は,n2c2臨床ノートから算出したモビリティNERデータセットから,1000文のバランスの取れたバイナリ分類データセットを収集した。
論文 参考訳(メタデータ) (2023-12-15T20:59:17Z) - Look Before You Leap: A Universal Emergent Decomposition of Retrieval
Tasks in Language Models [58.57279229066477]
本研究では,言語モデル(LM)が様々な状況下での検索タスクをどのように解決するかを検討する。
ORIONは6つのドメインにまたがる構造化された検索タスクの集合である。
LMは内部的にモジュール方式で検索タスクを分解する。
論文 参考訳(メタデータ) (2023-12-13T18:36:43Z) - Contextual Biasing of Named-Entities with Large Language Models [12.396054621526643]
本稿では,Large Language Models (LLM) を用いた文脈バイアスについて検討する。
LLMに追加のコンテキスト情報を提供して、自動音声認識(ASR)性能を向上する。
本稿では, バイアスリストと少数ショット例を組み込んだ再描画時に, 微調整を行なわずに, LLMのプロンプトを活用することを提案する。
論文 参考訳(メタデータ) (2023-09-01T20:15:48Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Estimating Large Language Model Capabilities without Labeled Test Data [51.428562302037534]
大規模言語モデル(LLM)は、ほんの数例からICL(In-context Learning)を実行するという印象的な能力を持っている。
ICLの精度推定タスクを提案し、新しいタスクで文脈内学習を行う場合のLLMの精度を予測する。
論文 参考訳(メタデータ) (2023-05-24T06:55:09Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - Toward Efficient Language Model Pretraining and Downstream Adaptation
via Self-Evolution: A Case Study on SuperGLUE [203.65227947509933]
このレポートでは、スーパーGLUEのリーダーボードにJDExplore d-teamのVega v2を提出しました。
SuperGLUEは、広く使われている汎用言語理解評価(GLUE)ベンチマークよりも難易度が高く、8つの難しい言語理解タスクを含んでいる。
論文 参考訳(メタデータ) (2022-12-04T15:36:18Z) - Towards No.1 in CLUE Semantic Matching Challenge: Pre-trained Language
Model Erlangshen with Propensity-Corrected Loss [12.034243662298035]
本稿では,事前訓練された言語モデルErlangshenについて述べる。
マスケッド言語モデリング(MLM)における知識に基づく動的マスキング戦略を構築する。
総合すると、F1スコアで72.54点、テストセットで78.90点となる。
論文 参考訳(メタデータ) (2022-08-05T02:52:29Z) - Generating Training Data with Language Models: Towards Zero-Shot
Language Understanding [35.92571138322246]
事前訓練された言語モデル(PLM)は、様々な自然言語処理タスクにおいて顕著な性能を示した。
NLUタスクのゼロショット学習に両タイプのPLMを用いる簡単な手法を提案する。
提案手法は,GLUEベンチマークの7つの分類タスクに対して高い性能を示す。
論文 参考訳(メタデータ) (2022-02-09T16:02:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。