論文の概要: A Multi-Source Heterogeneous Knowledge Injected Prompt Learning Method for Legal Charge Prediction
- arxiv url: http://arxiv.org/abs/2408.02233v1
- Date: Mon, 5 Aug 2024 04:53:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-06 14:36:03.791091
- Title: A Multi-Source Heterogeneous Knowledge Injected Prompt Learning Method for Legal Charge Prediction
- Title(参考訳): 法定電荷予測のためのマルチソース不均一知識インジェクトプロンプト学習法
- Authors: Jingyun Sun, Chi Wei, Yang Li,
- Abstract要約: 本稿では,ケース記述をモデル化するための素早い学習フレームワークに基づく手法を提案する。
我々は,法的知識ベース,会話型LLM,法的記事から多元的外部知識を活用する。
提案手法は,CAIL-2018の法定電荷予測データセットとして最大である。
- 参考スコア(独自算出の注目度): 3.52209555388364
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legal charge prediction, an essential task in legal AI, seeks to assign accurate charge labels to case descriptions, attracting significant recent interest. Existing methods primarily employ diverse neural network structures for modeling case descriptions directly, failing to effectively leverage multi-source external knowledge. We propose a prompt learning framework-based method that simultaneously leverages multi-source heterogeneous external knowledge from a legal knowledge base, a conversational LLM, and related legal articles. Specifically, we match knowledge snippets in case descriptions via the legal knowledge base and encapsulate them into the input through a hard prompt template. Additionally, we retrieve legal articles related to a given case description through contrastive learning, and then obtain factual elements within the case description through a conversational LLM. We fuse the embedding vectors of soft prompt tokens with the encoding vector of factual elements to achieve knowledge-enhanced model forward inference. Experimental results show that our method achieved state-of-the-art results on CAIL-2018, the largest legal charge prediction dataset, and our method has lower data dependency. Case studies also demonstrate our method's strong interpretability.
- Abstract(参考訳): 法的AIにおいて不可欠なタスクである法定電荷予測は、ケース記述に正確な電荷ラベルを割り当てることを模索しており、最近の大きな関心を集めている。
既存の手法は主に、ケース記述を直接モデル化するために多様なニューラルネットワーク構造を使用し、マルチソースの外部知識を効果的に活用できない。
本稿では,多元異種外部知識を法的知識ベース,会話型LLM,関連する法的項目から同時に活用する,素早い学習フレームワークに基づく手法を提案する。
具体的には、法的な知識ベースによって記述された場合の知識スニペットをマッチングし、ハードプロンプトテンプレートを通じて入力にカプセル化する。
さらに, ケース記述に関する法的項目を, コントラスト学習を通じて検索し, 対話型LLMを通して事例記述の事実的要素を取得する。
ソフトプロンプトトークンの埋め込みベクトルと事実要素の符号化ベクトルを融合させて知識強化モデルフォワード推論を実現する。
実験結果から,本手法はCAIL-2018の法定電荷予測データセットとして最大であり,データ依存度が低いことがわかった。
ケーススタディでは,本手法の強い解釈可能性も示している。
関連論文リスト
- Knowledge Graph-Enhanced Large Language Models via Path Selection [58.228392005755026]
大規模言語モデル(LLM)は、様々な現実世界のアプリケーションで前例のない性能を示している。
LLMは実際に不正確な出力、すなわち幻覚の問題を発生させることが知られている。
上記の問題に対処する3段階の原理的フレームワークKELPを提案する。
論文 参考訳(メタデータ) (2024-06-19T21:45:20Z) - Empowering Prior to Court Legal Analysis: A Transparent and Accessible Dataset for Defensive Statement Classification and Interpretation [5.646219481667151]
本稿では,裁判所の手続きに先立って,警察の面接中に作成された文の分類に適した新しいデータセットを提案する。
本稿では,直感的文と真偽を区別し,最先端のパフォーマンスを実現するための微調整DistilBERTモデルを提案する。
我々はまた、法律専門家と非専門主義者の両方がシステムと対話し、利益を得ることを可能にするXAIインターフェースも提示する。
論文 参考訳(メタデータ) (2024-05-17T11:22:27Z) - Enhancing Contextual Understanding in Large Language Models through Contrastive Decoding [9.2433070542025]
大規模言語モデル(LLM)は、テキスト生成時に入力コンテキストを不適切に統合する傾向がある。
本稿では, 逆無関係なパスを負のサンプルとして, コントラストデコーディングを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T20:38:41Z) - Enhancing Court View Generation with Knowledge Injection and Guidance [43.32071790286732]
裁判所ビュー生成(CVG)は、原告の主張と事実記述に基づいて裁判所ビューを生成することを目的としている。
PLMは自然言語生成の進歩を誇示しているが、CVGの複雑で知識集約的な領域への応用は、しばしば固有の制限を明らかにしている。
PLMを用いてCVGを活性化させる新しい手法であるKnowledge Injection and Guidance(KIG)を提案する。
訓練段階において,ドメイン知識を効率的に組み込むため,即時チューニングのための知識注入プロンプトエンコーダを導入し,計算オーバーヘッドを低減した。
論文 参考訳(メタデータ) (2024-03-07T09:51:11Z) - Infusing Knowledge into Large Language Models with Contextual Prompts [5.865016596356753]
入力テキスト中の文脈からプロンプトを生成することにより,知識注入のためのシンプルだが一般化可能なアプローチを提案する。
本実験は, 微調整LDMを用いて評価する手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-03T11:19:26Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Ontology-enhanced Prompt-tuning for Few-shot Learning [41.51144427728086]
少ないショットラーニングは、限られたサンプル数に基づいて予測を行うことを目的としている。
知識グラフやオントロジーライブラリなどの構造化データは、様々なタスクにおける数ショット設定の恩恵を受けるために利用されてきた。
論文 参考訳(メタデータ) (2022-01-27T05:41:36Z) - Knowledge-Aware Procedural Text Understanding with Multi-Stage Training [110.93934567725826]
本稿では,このような文書の理解とプロセス中のエンティティの状態や場所の追跡を目的とした手続き的テキスト理解の課題に焦点をあてる。
常識的推論の難しさとデータ不足という2つの課題はまだ未解決のままである。
我々は、複数の外部知識を効果的に活用する、KnOwledge-Aware ProceduraL text understAnding (KOALA)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-28T10:28:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。