論文の概要: TEPrompt: Task Enlightenment Prompt Learning for Implicit Discourse
Relation Recognition
- arxiv url: http://arxiv.org/abs/2305.10866v1
- Date: Thu, 18 May 2023 10:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 15:45:13.672215
- Title: TEPrompt: Task Enlightenment Prompt Learning for Implicit Discourse
Relation Recognition
- Title(参考訳): TEPrompt: 暗黙の会話関係認識のためのタスク啓蒙プロンプト学習
- Authors: Wei Xiang and Chao Liang and Bang Wang
- Abstract要約: TEPromptと呼ばれるタスク啓蒙促進学習モデルを提案し,IDRRに関連する3つのタスクから学習特徴を抽出する。
学習段階において、我々は3つの素早い学習課題を共通の議論表現で共同で訓練する。
テスト段階では、DRR出力と融合した特徴を最終IDRR決定とみなす。
- 参考スコア(独自算出の注目度): 17.965231530180212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit Discourse Relation Recognition (IDRR) aims at classifying the
relation sense between two arguments without an explicit connective. Recently,
the ConnPrompt~\cite{Wei.X:et.al:2022:COLING} has leveraged the powerful prompt
learning for IDRR based on the fusion of multi-prompt decisions from three
different yet much similar connective prediction templates. Instead of
multi-prompt ensembling, we propose to design auxiliary tasks with enlightened
prompt learning for the IDRR task. Although an auxiliary task is not used to
directly output final prediction, we argue that during the joint training some
of its learned features can be useful to boost the main task. In light of such
motivations, we propose a task enlightenment prompt learning model, called
TEPrompt, to fuse learned features from three related tasks for IDRR. In
particular, the TEPrompt contains three tasks, viz., Discourse Relation
Recognition (DRR), Sense Semantics Classification (SSC) and Annotated
Connective Prediction (ACP), each with a unique prompt template and an answer
space. In the training phase, we jointly train three prompt learning tasks with
shared argument representation. In the testing phase, we only take the DRR
output with fused features as the final IDRR decision. Experiments with the
same conditions have shown that the proposed TEPrompt outperforms the
ConnPrompt. This can be attributed to the promoted decision features and
language models benefited from joint-training of auxiliary tasks.
- Abstract(参考訳): Implicit Discourse Relation Recognition (IDRR) は、明示的な接続性を持たない2つの引数間の関係感覚を分類することを目的としている。
最近、ConnPrompt~\cite{Wei.X:et.al:2022:COling}は、3つの異なる類似した接続予測テンプレートからのマルチプロンプト決定の融合に基づいて、IDRRの強力なプロンプト学習を活用している。
マルチプロンプト・アンサンブルの代わりに,IDRRタスクの即時学習を啓発した補助タスクの設計を提案する。
補助的なタスクは最終予測を直接出力するためには使用されないが、共同トレーニング中に学習した特徴のいくつかは、メインタスクの強化に有用である、と論じる。
このようなモチベーションを考慮したTEPromptと呼ばれるタスク啓蒙促進学習モデルを提案する。
特に、tepromptには、viz.、discourse relation recognition (drr)、sense semantics classification (ssc)、annotated connective prediction (acp)の3つのタスクが含まれており、それぞれに独自のプロンプトテンプレートと回答空間がある。
学習段階では,共通議論表現を用いた3つの学習課題を共同で訓練する。
テスト段階では、DRR出力と融合した特徴のみを最終IDRR決定とする。
同じ条件下での実験では、提案されたTEPromptがConnPromptより優れていることが示されている。
これは、補助的なタスクの共同トレーニングの恩恵を受けている、決定の促進と言語モデルに起因する。
関連論文リスト
- PECTP: Parameter-Efficient Cross-Task Prompts for Incremental Vision Transformer [76.39111896665585]
インクリメンタルラーニング(IL)は、シーケンシャルタスクの深いモデルを継続的に学習することを目的としている。
近年の大規模事前訓練モデル (PTM) は, 従来の試料を含まない実用ILにおいて, 即時的手法により優れた性能を発揮している。
論文 参考訳(メタデータ) (2024-07-04T10:37:58Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - UniMD: Towards Unifying Moment Retrieval and Temporal Action Detection [19.595956464166548]
時間的行動検出(TAD)は、事前に定義されたアクションを検出することに焦点を当て、モーメント検索(MR)は、未トリミングビデオの中で、オープンな自然言語によって記述される事象を特定することを目的としている。
我々は,TADとMRの両方に対して統一モーメント検出(Unified Moment Detection, Unified Moment Detection, UniMD)と呼ばれる統一アーキテクチャを提案する。
TADのアクションやMRのイベントといった2つのタスクの入力を共通の埋め込み空間に変換し、2つの新しいクエリ依存デコーダを使用して、分類スコアと時間セグメントの均一な出力を生成する。
論文 参考訳(メタデータ) (2024-04-07T12:14:42Z) - kNN-ICL: Compositional Task-Oriented Parsing Generalization with Nearest
Neighbor In-Context Learning [50.40636157214161]
Task-Oriented Parsing (TOP)により、会話アシスタントは自然言語で表現されたユーザーコマンドを解釈できる。
LLMは、自然言語のプロンプトに基づいて、コンピュータプログラムにおいて印象的な性能を達成した。
本稿では,LLMのセマンティック解析機能を活用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-17T17:26:50Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - A Unified Framework for Multi-intent Spoken Language Understanding with
prompting [14.17726194025463]
Prompt-based Spoken Language Understanding (PromptSLU) フレームワークについて述べる。
詳細は、音声をタスク固有のプロンプトテンプレートに入力として簡潔に充填し、キー-値ペアシーケンスの出力形式を共有することにより、IDとSFが完成する。
実験の結果,我々のフレームワークは2つの公開データセット上で,最先端のベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-10-07T05:58:05Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - Shepherd Pre-trained Language Models to Develop a Train of Thought: An
Iterative Prompting Approach [30.117038793151004]
プレトレーニング言語モデル(PLM)は、複雑で多段階の推論手順を必要とするタスクを解決するために知識をリコールすることができない。
人間がこれらのタスクのために「思考の訓練」を開発するのと同じように、どのようにしてPLMにそのような能力を持たせることができるのか?
本稿では,現在のステップのコンテキスト上で条件付きプロンプトを動的に合成することで,これらの制約に対処する反復型コンテキスト認識プロンプトを提案する。
論文 参考訳(メタデータ) (2022-03-16T04:12:20Z) - CINS: Comprehensive Instruction for Few-shot Learning in Task-oriented
Dialog Systems [56.302581679816775]
本稿では,タスク固有の命令でPLMを利用する包括的インストラクション(CINS)を提案する。
命令のスキーマ(定義、制約、プロンプト)と、ToDの3つの重要な下流タスクに対するカスタマイズされた実現を設計する。
これらのToDタスクに対して,小さな検証データを用いた現実的な数ショット学習シナリオで実験を行った。
論文 参考訳(メタデータ) (2021-09-10T03:23:06Z) - Self-supervised Contrastive Cross-Modality Representation Learning for
Spoken Question Answering [29.545937716796082]
音声質問応答 (SQA) は、音声文書と質問の両方をきめ細かな理解を必要とする。
本稿では,自己指導型学習段階とコントラッシブな表現学習段階を併用した音声質問応答のための新しい学習手法を提案する。
本モデルでは,3つのSQAベンチマークの最先端結果が得られた。
論文 参考訳(メタデータ) (2021-09-08T01:13:14Z) - Reciprocal Feature Learning via Explicit and Implicit Tasks in Scene
Text Recognition [60.36540008537054]
本研究では,従来のテキスト認識における文字数カウントという暗黙のタスクを,追加的な注釈コストなしで発掘する。
両タスクの機能を適切に活用するために,2分岐の相反的特徴学習フレームワークを設計する。
7つのベンチマークの実験では、テキスト認識と新しい文字カウントタスクの両方において提案手法の利点が示されている。
論文 参考訳(メタデータ) (2021-05-13T12:27:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。