論文の概要: Enhancing Court View Generation with Knowledge Injection and Guidance
- arxiv url: http://arxiv.org/abs/2403.04366v1
- Date: Thu, 7 Mar 2024 09:51:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-08 14:21:59.670211
- Title: Enhancing Court View Generation with Knowledge Injection and Guidance
- Title(参考訳): ナレッジインジェクションとガイダンスによる法廷ビュー生成の促進
- Authors: Ang Li, Yiquan Wu, Yifei Liu, Fei Wu, Ming Cai, Kun Kuang
- Abstract要約: 裁判所ビュー生成(CVG)は、原告の主張と事実記述に基づいて裁判所ビューを生成することを目的としている。
PLMは自然言語生成の進歩を誇示しているが、CVGの複雑で知識集約的な領域への応用は、しばしば固有の制限を明らかにしている。
PLMを用いてCVGを活性化させる新しい手法であるKnowledge Injection and Guidance(KIG)を提案する。
訓練段階において,ドメイン知識を効率的に組み込むため,即時チューニングのための知識注入プロンプトエンコーダを導入し,計算オーバーヘッドを低減した。
- 参考スコア(独自算出の注目度): 43.32071790286732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Court View Generation (CVG) is a challenging task in the field of Legal
Artificial Intelligence (LegalAI), which aims to generate court views based on
the plaintiff claims and the fact descriptions. While Pretrained Language
Models (PLMs) have showcased their prowess in natural language generation,
their application to the complex, knowledge-intensive domain of CVG often
reveals inherent limitations. In this paper, we present a novel approach, named
Knowledge Injection and Guidance (KIG), designed to bolster CVG using PLMs. To
efficiently incorporate domain knowledge during the training stage, we
introduce a knowledge-injected prompt encoder for prompt tuning, thereby
reducing computational overhead. Moreover, to further enhance the model's
ability to utilize domain knowledge, we employ a generating navigator, which
dynamically guides the text generation process in the inference stage without
altering the model's architecture, making it readily transferable.
Comprehensive experiments on real-world data demonstrate the effectiveness of
our approach compared to several established baselines, especially in the
responsivity of claims, where it outperforms the best baseline by 11.87%.
- Abstract(参考訳): 法廷ビュー生成(cvg)は法的人工知能(legalai)の分野で難しい課題であり、原告の主張と事実記述に基づいて裁判所の見解を生成することを目的としている。
事前学習された言語モデル (plm) は自然言語生成に長けているものの、cvgの複雑で知識集約的な領域への応用は、しばしば固有の制限を明らかにする。
本稿では, PLMを用いたCVGの促進を目的とした, 知識注入誘導(KIG)という新しいアプローチを提案する。
訓練段階において,ドメイン知識を効率的に組み込むため,即時チューニングのための知識注入プロンプトエンコーダを導入し,計算オーバーヘッドを低減する。
さらに、モデルがドメイン知識を利用する能力をさらに強化するために、生成ナビゲータを使用し、モデルアーキテクチャを変更することなく推論段階でテキスト生成プロセスを動的にガイドし、容易に転送できるようにする。
実世界のデータに関する総合的な実験は,いくつかの既定ベースラインと比較して,特にクレームの応答性が最良ベースラインを11.87%上回って,我々のアプローチの有効性を示している。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [75.78948575957081]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - A Multi-Source Heterogeneous Knowledge Injected Prompt Learning Method for Legal Charge Prediction [3.52209555388364]
本稿では,ケース記述をモデル化するための素早い学習フレームワークに基づく手法を提案する。
我々は,法的知識ベース,会話型LLM,法的記事から多元的外部知識を活用する。
提案手法は,CAIL-2018の法定電荷予測データセットとして最大である。
論文 参考訳(メタデータ) (2024-08-05T04:53:17Z) - Empowering Prior to Court Legal Analysis: A Transparent and Accessible Dataset for Defensive Statement Classification and Interpretation [5.646219481667151]
本稿では,裁判所の手続きに先立って,警察の面接中に作成された文の分類に適した新しいデータセットを提案する。
本稿では,直感的文と真偽を区別し,最先端のパフォーマンスを実現するための微調整DistilBERTモデルを提案する。
我々はまた、法律専門家と非専門主義者の両方がシステムと対話し、利益を得ることを可能にするXAIインターフェースも提示する。
論文 参考訳(メタデータ) (2024-05-17T11:22:27Z) - ProgGen: Generating Named Entity Recognition Datasets Step-by-step with Self-Reflexive Large Language Models [25.68491572293656]
大規模言語モデルは、名前付きエンティティ認識のような構造化された知識抽出タスクにおいて不足する。
本稿では,より優れたNERデータセットを生成するため,LCMを質素なNER能力で活用するための革新的で費用効率のよい戦略について検討する。
論文 参考訳(メタデータ) (2024-03-17T06:12:43Z) - ChatGPT-HealthPrompt. Harnessing the Power of XAI in Prompt-Based
Healthcare Decision Support using ChatGPT [15.973406739758856]
本研究は,OpenAIのChatGPTを中心に,大規模言語モデル(LLM)を臨床意思決定に適用するための革新的なアプローチを提案する。
提案手法では,タスク記述,特徴記述,ドメイン知識の統合を前提とした文脈的プロンプトの利用を提案する。
論文 参考訳(メタデータ) (2023-08-17T20:50:46Z) - KITLM: Domain-Specific Knowledge InTegration into Language Models for
Question Answering [30.129418454426844]
大規模言語モデル(LLM)は、幅広い自然言語処理において顕著な性能を示した。
関連情報注入による言語モデルへの知識ベース統合手法であるKITLMを提案する。
提案手法は,GPT-3.5-turbo と最先端知識注入法 SKILL を併用し,MetaQA 上での精度の1.5倍の精度向上を実現している。
論文 参考訳(メタデータ) (2023-08-07T14:42:49Z) - Commonsense Knowledge Transfer for Pre-trained Language Models [83.01121484432801]
ニューラルコモンセンス知識モデルに格納されたコモンセンス知識を汎用的な事前学習言語モデルに転送するフレームワークであるコモンセンス知識伝達を導入する。
まず、一般的なテキストを利用して、ニューラルコモンセンス知識モデルからコモンセンス知識を抽出するクエリを形成する。
次に、コモンセンスマスクの埋め込みとコモンセンスの関係予測という2つの自己教師対象で言語モデルを洗練する。
論文 参考訳(メタデータ) (2023-06-04T15:44:51Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Schema-aware Reference as Prompt Improves Data-Efficient Knowledge Graph
Construction [57.854498238624366]
本稿では,データ効率のよい知識グラフ構築のためのRAP(Schema-Aware Reference As Prompt)の検索手法を提案する。
RAPは、人間の注釈付きおよび弱教師付きデータから受け継いだスキーマと知識を、各サンプルのプロンプトとして動的に活用することができる。
論文 参考訳(メタデータ) (2022-10-19T16:40:28Z) - Visual-Language Navigation Pretraining via Prompt-based Environmental
Self-exploration [83.96729205383501]
本稿では,言語埋め込みの高速適応を実現するために,プロンプトベースの学習を導入する。
我々のモデルは、VLNやREVERIEを含む多様な視覚言語ナビゲーションタスクに適応することができる。
論文 参考訳(メタデータ) (2022-03-08T11:01:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。