論文の概要: PL-CA: A Parametric Legal Case Augmentation Framework
- arxiv url: http://arxiv.org/abs/2509.06356v1
- Date: Mon, 08 Sep 2025 06:08:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.989258
- Title: PL-CA: A Parametric Legal Case Augmentation Framework
- Title(参考訳): PL-CA: パラメトリックな判例拡張フレームワーク
- Authors: Ao Chang, Yubo Chen, Jun Zhao,
- Abstract要約: 従来のRAGは、取得した文書を直接モデルのコンテキストに注入するのみである。
多くの既存のベンチマークには専門家のアノテーションがなく、個別の下流タスクのみに焦点を当てている。
本稿では,PL-CAを提案する。PL-CAは,コーパス知識に基づくデータ拡張を行うためのパラメトリックRAGフレームワークである。
- 参考スコア(独自算出の注目度): 10.998168534326709
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional RAG is considered one of the most effective methods for addressing model knowledge insufficiency and hallucination, particularly in the judicial domain that requires high levels of knowledge rigor, logical consistency, and content integrity. However, the conventional RAG method only injects retrieved documents directly into the model's context, which severely constrains models due to their limited context windows and introduces additional computational overhead through excessively long contexts, thereby disrupting models' attention and degrading performance on downstream tasks. Moreover, many existing benchmarks lack expert annotation and focus solely on individual downstream tasks while real-world legal scenarios consist of multiple mixed legal tasks, indicating conventional benchmarks' inadequacy for reflecting models' true capabilities. To address these limitations, we propose PL-CA, which introduces a parametric RAG (P-RAG) framework to perform data augmentation on corpus knowledge and encode this legal knowledge into parametric vectors, and then integrates this parametric knowledge into the LLM's feed-forward networks (FFN) via LoRA, thereby alleviating models' context pressure. Additionally, we also construct a multi-task legal dataset comprising more than 2000 training and test instances, which are all expert-annotated and manually verified. We conduct our experiments on our dataset, and the experimental results demonstrate that our method reduces the overhead associated with excessively long contexts while maintaining competitive performance on downstream tasks compared to conventional RAG. Our code and dataset are provided in the appendix.
- Abstract(参考訳): 従来のRAGは、特に高いレベルの知識厳密性、論理的整合性、内容整合性を必要とする司法領域において、モデルの知識不足と幻覚に対処する最も効果的な方法の1つであると考えられている。
しかし、従来のRAG法では、検索した文書を直接モデルのコンテキストに注入するだけで、限られたコンテキストウィンドウによってモデルに厳しい制約を課し、過度に長いコンテキストを通して計算オーバーヘッドを発生させることで、モデルの注意を乱し、下流タスクの性能を低下させる。
さらに、多くの既存のベンチマークでは専門家のアノテーションが欠如しており、個々の下流タスクのみに焦点を当てているが、現実の法的なシナリオは複数の混合法的タスクで構成されており、モデルの真の能力を反映する従来のベンチマークの不十分さを示している。
これらの制約に対処するため, PL-CA は, コーパス知識に基づくデータ拡張を行い, この法的な知識をパラメトリックベクトルにエンコードするパラメトリックRAG (P-RAG) フレームワークを導入し, このパラメトリック知識を LoRA を介して LLM のフィードフォワードネットワーク (FFN) に統合することにより, モデルのコンテキストプレッシャーを緩和する。
さらに、2000以上のトレーニングとテストインスタンスからなるマルチタスクの法定データセットを構築し、これらはすべて専門家によって注釈付けされ、手動で検証される。
提案手法は,従来のRAGと比較して,下流タスクにおける競合性能を維持しながら,過度に長いコンテキストに関連付けられたオーバーヘッドを低減できることを示す。
コードとデータセットは付録に記載されています。
関連論文リスト
- REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - GLAD: Generalizable Tuning for Vision-Language Models [41.071911050087586]
GLAD (Generalizable LoRA tuning with RegulArized GraDient) という,よりシンプルで汎用的なフレームワークを提案する。
我々は,LoRAを適用するだけで,現在の最先端のプロンプトベースの手法に匹敵するダウンストリームタスクのパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2025-07-17T12:58:15Z) - Tree-Based Text Retrieval via Hierarchical Clustering in RAGFrameworks: Application on Taiwanese Regulations [0.0]
階層的なクラスタリングに基づく検索手法を提案する。
本手法は,意味的関連コンテンツを適応的に選択しながら,システム応答の精度と関連性を維持する。
我々のフレームワークは実装が簡単で、既存のRAGパイプラインと簡単に統合できます。
論文 参考訳(メタデータ) (2025-06-16T15:34:29Z) - Data-efficient Meta-models for Evaluation of Context-based Questions and Answers in LLMs [1.6332728502735252]
大規模言語モデル(LLM)とレトリーバル拡張生成(RAG)システムは、産業アプリケーションにますます多くデプロイされている。
その信頼性は、幻覚検出の課題によって妨げられている。
本稿では,データアノテーションのボトルネックを,トレーニングデータ要件の低減の可能性を検討することによって解決する。
論文 参考訳(メタデータ) (2025-05-29T09:50:56Z) - Insight-RAG: Enhancing LLMs with Insight-Driven Augmentation [4.390998479503661]
本稿では,インサイトに基づく文書検索のための新しいフレームワークであるInsight-RAGを提案する。
Insight-RAG の初期段階では,従来の検索手法の代わりに LLM を用いて入力クエリとタスクを解析する。
従来のRAG手法と同様に、元のクエリを抽出した洞察と統合することにより、最終的なLCMを用いて、文脈的に豊かで正確な応答を生成する。
論文 参考訳(メタデータ) (2025-03-31T19:50:27Z) - Crossing the Reward Bridge: Expanding RL with Verifiable Rewards Across Diverse Domains [92.36624674516553]
検証可能な報酬付き強化学習(RLVR)は、大規模言語モデル(LLM)の数学的推論と符号化性能の向上に成功している。
本稿では,医学,化学,心理学,経済学,教育など,さまざまな現実世界領域におけるRLVRの有効性と拡張性について検討する。
我々は,2値検証による制限を克服するために,ソフトなモデルに基づく報酬信号を生成する生成的スコアリング手法を利用する。
論文 参考訳(メタデータ) (2025-03-31T08:22:49Z) - Face the Facts! Evaluating RAG-based Fact-checking Pipelines in Realistic Settings [14.355271969637139]
この作業は、Retrieval-Augmented Generationパラダイムに基づいた自動ファクトチェックのための現在の最先端パイプラインのいくつかの制約を取り上げる。
我々のゴールは、より現実的なシナリオの下で、予測の生成のためのRAGベースのメソッドをベンチマークすることです。
論文 参考訳(メタデータ) (2024-12-19T18:57:11Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - A Thorough Performance Benchmarking on Lightweight Embedding-based Recommender Systems [67.52782366565658]
State-of-the-art recommender system (RS) は、埋め込みベクトルによって符号化される分類的特徴に依存し、結果として非常に大きな埋め込みテーブルとなる。
軽量埋め込み型RSの繁栄にもかかわらず、評価プロトコルには幅広い多様性が見られる。
本研究では, LERSの性能, 効率, クロスタスク転送性について, 徹底的なベンチマークによる検討を行った。
論文 参考訳(メタデータ) (2024-06-25T07:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。