論文の概要: Unlocking Instructive In-Context Learning with Tabular Prompting for
Relational Triple Extraction
- arxiv url: http://arxiv.org/abs/2402.13741v1
- Date: Wed, 21 Feb 2024 12:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 15:29:47.334325
- Title: Unlocking Instructive In-Context Learning with Tabular Prompting for
Relational Triple Extraction
- Title(参考訳): リレーショナルトリプル抽出のための表型プロンプトによるインストラクティブ・イン・コンテキスト学習のアンロック
- Authors: Guozheng Li, Wenjun Ke, Peng Wang, Zijie Xu, Ke Ji, Jiajun Liu, Ziyu
Shang and Qiqing Luo
- Abstract要約: リレーショナルトリプル抽出(RTE)のためのインコンテキスト学習(ICL)は有望な性能を達成した。
既存のメソッドでは,効果的なプロンプトの設計方法と,適切なデモを選択する方法という,2つの重要な課題に対処できない。
これらの問題は、RTEのICLにおける改善された性能を阻害しているため、我々は、迅速な設計とサンプル選択の課題に同時に取り組むことを目指している。
提案するインテキスト学習(I$2$CL)は,大規模無ラベルサンプルにおける内部3つの意味論を考慮に入れた少数のサンプルのみを選択・注釈する。
- 参考スコア(独自算出の注目度): 12.535320024096022
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The in-context learning (ICL) for relational triple extraction (RTE) has
achieved promising performance, but still encounters two key challenges: (1)
how to design effective prompts and (2) how to select proper demonstrations.
Existing methods, however, fail to address these challenges appropriately. On
the one hand, they usually recast RTE task to text-to-text prompting formats,
which is unnatural and results in a mismatch between the output format at the
pre-training time and the inference time for large language models (LLMs). On
the other hand, they only utilize surface natural language features and lack
consideration of triple semantics in sample selection. These issues are
blocking improved performance in ICL for RTE, thus we aim to tackle prompt
designing and sample selection challenges simultaneously. To this end, we
devise a tabular prompting for RTE (\textsc{TableIE}) which frames RTE task
into a table generation task to incorporate explicit structured information
into ICL, facilitating conversion of outputs to RTE structures. Then we propose
instructive in-context learning (I$^2$CL) which only selects and annotates a
few samples considering internal triple semantics in massive unlabeled samples.
- Abstract(参考訳): リレーショナルトリプル抽出(RTE)のための文脈内学習(ICL)は,有望な性能を達成したが,(1)効果的なプロンプトの設計方法,(2)適切な実演を選択する方法の2つの大きな課題に直面している。
しかし、既存の方法はこれらの課題に適切に対処できない。
一方、彼らは通常、RTEタスクをテキストからテキストへのプロンプトフォーマットにリキャストするが、これは不自然であり、トレーニング前の出力フォーマットと大きな言語モデル(LLM)の推論時間とのミスマッチをもたらす。
一方,表層自然言語の特徴のみを生かし,サンプル選択における三重意味論の考慮を欠いている。
これらの問題は、icl for rteのパフォーマンス向上を妨げているため、迅速な設計とサンプル選択の課題を同時に取り組もうとしています。
この目的のために、RTEタスクをテーブル生成タスクにフレーム化するRTE(\textsc{TableIE})の表計算プロンプトを考案し、明示的な構造化情報をICLに組み込むことにより、出力をRTE構造に変換する。
そこで本研究では,大規模未ラベルサンプルの内部3つの意味論を考慮に入れた少数のサンプルのみを選択・注釈するインストラクティブ・イン・コンテクスト学習(I$^2$CL)を提案する。
関連論文リスト
- TableTime: Reformulating Time Series Classification as Zero-Shot Table Understanding via Large Language Models [54.44272772296578]
大規模言語モデル (LLM) は多変量時系列分類において有効であることを示した。
LLM は LLM の潜在空間内の時系列の埋め込みを直接コードし、LLM の意味空間と一致させる。
MTSCを表理解タスクとして再編成するテーブルタイムを提案する。
論文 参考訳(メタデータ) (2024-11-24T07:02:32Z) - Knowledge in Triples for LLMs: Enhancing Table QA Accuracy with Semantic Extraction [1.0968343822308813]
本稿では,表型データから直交三重項を抽出し,それを検索拡張生成(RAG)モデルに統合することにより,微調整GPT-3.5-turbo-0125モデルにより生成された応答の精度,コヒーレンス,コンテキスト的リッチ性を向上させる手法を提案する。
FeTaQAデータセットの既存のベースライン、特にSacre-BLEUとROUGEの指標に優れています。
論文 参考訳(メタデータ) (2024-09-21T16:46:15Z) - Text-Tuple-Table: Towards Information Integration in Text-to-Table Generation via Global Tuple Extraction [36.915250638481986]
リアルタイムのコメンタリーテキストに基づいたコンペの要約表を生成するためのベンチマークデータセットであるLiveSumを紹介する。
我々は,このタスクにおける最先端の大規模言語モデルの性能を,微調整とゼロショットの両方で評価する。
さらに、パフォーマンスを改善するために、$T3$(Text-Tuple-Table)と呼ばれる新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-04-22T14:31:28Z) - LaSagnA: Language-based Segmentation Assistant for Complex Queries [39.620806493454616]
視覚のための大規模言語モデル(vLLM)は、バウンディングボックスやマスクを含む知覚結果を生成する。
本研究では,これらの問題の主な原因が,学習クエリの複雑さの不足であることを認めた。
本稿では,提案フォーマットの直接統合による課題を効果的に解決するための3つの新しい戦略を提案する。
論文 参考訳(メタデータ) (2024-04-12T14:40:45Z) - TDeLTA: A Light-weight and Robust Table Detection Method based on
Learning Text Arrangement [34.73880086005418]
本稿では,学習テキストアレンジメント(TDeLTA)に基づく新しい,軽量で堅牢なテーブル検出手法を提案する。
表を正確に特定するために,表内の意味的役割に応じてテキストブロックを4つのカテゴリに分類するテキスト分類タスクを設計する。
いくつかの最先端の手法と比較して、TDeLTAは大規模な公開データセットの3.1Mモデルパラメータで競合する結果を得る。
論文 参考訳(メタデータ) (2023-12-18T09:18:43Z) - kNN-ICL: Compositional Task-Oriented Parsing Generalization with Nearest
Neighbor In-Context Learning [50.40636157214161]
Task-Oriented Parsing (TOP)により、会話アシスタントは自然言語で表現されたユーザーコマンドを解釈できる。
LLMは、自然言語のプロンプトに基づいて、コンピュータプログラムにおいて印象的な性能を達成した。
本稿では,LLMのセマンティック解析機能を活用することに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-17T17:26:50Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - TEPrompt: Task Enlightenment Prompt Learning for Implicit Discourse
Relation Recognition [17.965231530180212]
TEPromptと呼ばれるタスク啓蒙促進学習モデルを提案し,IDRRに関連する3つのタスクから学習特徴を抽出する。
学習段階において、我々は3つの素早い学習課題を共通の議論表現で共同で訓練する。
テスト段階では、DRR出力と融合した特徴を最終IDRR決定とみなす。
論文 参考訳(メタデータ) (2023-05-18T10:38:06Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - RelationPrompt: Leveraging Prompts to Generate Synthetic Data for
Zero-Shot Relation Triplet Extraction [65.4337085607711]
ゼロショット関係トリプルト抽出(ZeroRTE)のタスク設定について紹介する。
入力文が与えられた後、抽出された各三重項は、トレーニング段階で関係ラベルが見えないヘッドエンティティ、リレーションラベル、テールエンティティから構成される。
本稿では、言語モデルに構造化テキストを生成するよう促すことで、関係例を合成する。
論文 参考訳(メタデータ) (2022-03-17T05:55:14Z) - I3CL:Intra- and Inter-Instance Collaborative Learning for
Arbitrary-shaped Scene Text Detection [93.62705504233931]
事例間協調学習(I3CL)という新しい手法を提案する。
具体的には、最初の問題に対処するため、複数の受容場を持つ効率的な畳み込みモジュールを設計する。
2つ目の問題に対処するため、異なるテキストインスタンス間の依存関係を利用するインスタンスベースのトランスフォーマーモジュールを考案しました。
論文 参考訳(メタデータ) (2021-08-03T07:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。