論文の概要: Arguments to Key Points Mapping with Prompt-based Learning
- arxiv url: http://arxiv.org/abs/2211.14995v1
- Date: Mon, 28 Nov 2022 01:48:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 17:38:37.903716
- Title: Arguments to Key Points Mapping with Prompt-based Learning
- Title(参考訳): プロンプトベース学習によるキーポイントマッピングへの議論
- Authors: Ahnaf Mozib Samin, Behrooz Nikandish, Jingyan Chen
- Abstract要約: 本稿では,パラメータ対キーポイントマッピングタスクに対する2つのアプローチを提案する。
最初のアプローチは、事前訓練された言語モデルを微調整するためのプロンプトエンジニアリングを統合することである。
第二のアプローチは、PLMにおけるプロンプトベースの学習を利用して中間テキストを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Handling and digesting a huge amount of information in an efficient manner
has been a long-term demand in modern society. Some solutions to map key points
(short textual summaries capturing essential information and filtering
redundancies) to a large number of arguments/opinions have been provided
recently (Bar-Haim et al., 2020). To complement the full picture of the
argument-to-keypoint mapping task, we mainly propose two approaches in this
paper. The first approach is to incorporate prompt engineering for fine-tuning
the pre-trained language models (PLMs). The second approach utilizes
prompt-based learning in PLMs to generate intermediary texts, which are then
combined with the original argument-keypoint pairs and fed as inputs to a
classifier, thereby mapping them. Furthermore, we extend the experiments to
cross/in-domain to conduct an in-depth analysis. In our evaluation, we find
that i) using prompt engineering in a more direct way (Approach 1) can yield
promising results and improve the performance; ii) Approach 2 performs
considerably worse than Approach 1 due to the negation issue of the PLM.
- Abstract(参考訳): 大量の情報を効率的に処理し、消化することは、現代社会における長期的な需要である。
キーポイント(必須情報を取り込む短いテキスト要約とフィルタリング冗長性)を多くの引数/オピニオンにマップするソリューションが最近提供されている(bar-haim et al., 2020)。
本稿では,引数対キーポイントマッピングタスクの全体像を補完するために,主に2つのアプローチを提案する。
最初のアプローチは、事前学習言語モデル(plm)の微調整にプロンプトエンジニアリングを組み込むことである。
第2のアプローチは、PLMにおけるプロンプトベースの学習を利用して中間テキストを生成し、元の引数キーポイントペアと組み合わせて、クラス化子に入力として入力し、それらをマッピングする。
さらに,実験をクロス/イン・ドメインに拡張し,詳細な分析を行う。
私たちの評価では
一 より直接的な方法による即効的な工学の使用(アプローチ1)は、有望な結果をもたらし、性能を改善することができる。
二 アプローチ2は、PLMの否定問題により、アプローチ1より著しく悪化する。
関連論文リスト
- Scalable and Domain-General Abstractive Proposition Segmentation [20.532804009152255]
我々は抽象命題セグメンテーションの課題に焦点を当てる。
本稿では,スケーラブルで精度の高い命題セグメンテーションモデルを提案する。
論文の重要なコントリビューションとして、NLP実践者が利用できる使いやすいAPIを共有します。
論文 参考訳(メタデータ) (2024-06-28T10:24:31Z) - Conditional Prototype Rectification Prompt Learning [32.533844163120875]
本稿では, 基本事例のバイアスを補正し, 限られたデータを効果的に拡張するための, CPR(Prototype Rectification Prompt Learning)手法を提案する。
CPRは、いくつかのショット分類とベース・ツー・ニューな一般化タスクの両方において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-04-15T15:43:52Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - Instance-wise Prompt Tuning for Pretrained Language Models [72.74916121511662]
インスタンスワイドのPrompt Tuning(IPT)は、入力データインスタンスからプロンプトに知識を注入する最初のプロンプト学習パラダイムである。
IPTはタスクベースのプロンプト学習法を著しく上回り、調律パラメータのわずか0.5%から1.5%で従来の微調整に匹敵する性能を達成している。
論文 参考訳(メタデータ) (2022-06-04T10:08:50Z) - Supporting Vision-Language Model Inference with Confounder-pruning Knowledge Prompt [71.77504700496004]
視覚言語モデルは、オープンセットの視覚概念を扱うために、画像とテキストのペアを共通の空間に整列させることで事前訓練される。
事前訓練されたモデルの転送可能性を高めるため、最近の研究では、固定または学習可能なプロンプトが採用されている。
しかし、どのようにして、どのプロンプトが推論性能を改善するのかは、まだ不明である。
論文 参考訳(メタデータ) (2022-05-23T07:51:15Z) - CUP: Curriculum Learning based Prompt Tuning for Implicit Event Argument
Extraction [22.746071199667146]
Implicit Event argument extract (EAE) は、文書に散らばる可能性のある引数を特定することを目的としている。
本稿では,4つの学習段階によって暗黙的EAEを解消する,カリキュラム学習に基づくプロンプトチューニング(CUP)手法を提案する。
さらに,事前学習した言語モデルから関連する知識を引き出すために,プロンプトベースのエンコーダデコーダモデルを統合する。
論文 参考訳(メタデータ) (2022-05-01T16:03:54Z) - VL-NMS: Breaking Proposal Bottlenecks in Two-Stage Visual-Language
Matching [75.71523183166799]
マルチモーダル入力をマッチングするための一般的なフレームワークは、2段階のプロセスに基づいている。
これらの手法は、2つの段階における提案の役割間の明らかな不一致を見落としていると論じる。
今回提案するVL-NMSは、問い合わせ対応の提案を第一段階に行う最初の手法です。
論文 参考訳(メタデータ) (2021-05-12T13:05:25Z) - Low-Resource Domain Adaptation for Compositional Task-Oriented Semantic
Parsing [85.35582118010608]
タスク指向のセマンティックパーシングは仮想アシスタントの重要なコンポーネントである。
近年のディープラーニングの進歩は、より複雑なクエリを解析するいくつかのアプローチを可能にしている。
そこで本研究では,教師付きニューラルネットワークを10倍の精度で高速化する手法を提案する。
論文 参考訳(メタデータ) (2020-10-07T17:47:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。