論文の概要: All for law and law for all: Adaptive RAG Pipeline for Legal Research
- arxiv url: http://arxiv.org/abs/2508.13107v1
- Date: Mon, 18 Aug 2025 17:14:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.505859
- Title: All for law and law for all: Adaptive RAG Pipeline for Legal Research
- Title(参考訳): 法と法のためのすべて:法研究のための適応的なRAGパイプライン
- Authors: Figarri Keisha, Prince Singh, Pallavi, Dion Fernandes, Aravindh Manivannan, Ilham Wicaksono, Faisal Ahmad,
- Abstract要約: Retrieval-Augmented Generation (RAG) は、参照ソースで大きな言語モデル出力を基底にして幻覚を緩和する。
本稿では,LegalBenchRAGベースラインを再検討し,拡張する,エンドツーエンドのRAGパイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) mitigates hallucinations by grounding large language model outputs in cited sources, a capability that is especially critical in the legal domain. We present an end-to-end RAG pipeline that revisits and extends the LegalBenchRAG baseline with three targeted enhancements: (i) a context-aware query translator that disentangles document references from natural-language questions and adapts retrieval depth and response style based on expertise and specificity, (ii) open-source retrieval strategies using SBERT and GTE embeddings that achieve substantial performance gains (improving Recall@K by 30-95\% and Precision@K by $\sim$2.5$\times$ for $K>4$) while remaining cost-efficient, and (iii) a comprehensive evaluation and generation framework that combines RAGAS, BERTScore-F1, and ROUGE-Recall to assess semantic alignment and faithfulness across models and prompt designs. Our results show that carefully designed open-source pipelines can rival or outperform proprietary approaches in retrieval quality, while a custom legal-grounded prompt consistently produces more faithful and contextually relevant answers than baseline prompting. Taken together, these contributions demonstrate the potential of task-aware, component-level tuning to deliver legally grounded, reproducible, and cost-effective RAG systems for legal research assistance.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、参照ソースに大規模な言語モデル出力を基盤にして幻覚を緩和する。
我々は,LegalBenchRAGベースラインを再検討し,拡張する,エンドツーエンドのRAGパイプラインを提案する。
一 自然言語の質問から文書参照を切り離し、専門性及び特異性に基づいて検索深度及び応答スタイルを適応する文脈対応クエリトランスレータ。
(ii) SBERT と GTE を組み込んだオープンソースの検索戦略(Recall@K を 30-95 %、Precision@K を $\sim$2.5$\times$ for $K>4$) で、コスト効率を保ちながら、大幅なパフォーマンス向上を実現している。
3)RAGAS、BERTScore-F1、ROUGE-Recallを組み合わせた総合的な評価・生成フレームワークで、モデル間のセマンティックアライメントと忠実さを評価し、設計を促す。
提案手法は,オープンソースパイプラインを慎重に設計することで,検索品質において独自のアプローチに対抗し,性能を向上できることを示す。
これらの貢献は、法的に基礎を置き、再現可能で、費用対効果の高いRAGシステムを提供するためのタスク認識、コンポーネントレベルのチューニングの可能性を実証するものである。
関連論文リスト
- RAGulating Compliance: A Multi-Agent Knowledge Graph for Regulatory QA [0.0]
規制コンプライアンス質問応答(QA)は、正確で検証可能な情報を必要とする。
我々は、レギュレーション三重項の知識グラフ(KG)とレトリーバル拡張生成(RAG)を統合する新しいマルチエージェントフレームワークを提案する。
我々のハイブリッドシステムは、複雑な規制クエリにおいて従来の手法よりも優れており、組込み三重項による事実の正しさが保証されている。
論文 参考訳(メタデータ) (2025-08-13T15:51:05Z) - Learning to Extract Rational Evidence via Reinforcement Learning for Retrieval-Augmented Generation [37.47571308389908]
Retrieval-Augmented Generation (RAG) はLarge Language Models (LLM) の精度を効果的に向上させる
それまでの手法では、明確な思考なしに証拠を直接抽出し、重要な手がかりをフィルタリングし、一般化に苦慮する危険性がある。
本稿では,(1)検索内容中の潜在的手がかりを明示的に推論し,(2)質問に答えるのに有用なキー手がかりを省略しないよう意識的に抽出することによる合理的証拠の抽出を学習するEvi Omniを提案する。
論文 参考訳(メタデータ) (2025-07-21T13:03:55Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z) - Evaluating LLM-based Approaches to Legal Citation Prediction: Domain-specific Pre-training, Fine-tuning, or RAG? A Benchmark and an Australian Law Case Study [9.30538764385435]
大規模言語モデル (LLM) は法的タスクに強い可能性を示しているが、法的な引用予測の問題は未解明のままである。
AusLaw Citation Benchmarkは,オーストラリアで55万の法的事例と18,677のユニークな引用からなる実世界のデータセットである。
次に、さまざまなソリューションに対して、システマティックなベンチマークを実施します。
その結果, 一般および法定LLMは独立解として十分ではなく, ほぼゼロに近い性能を示した。
論文 参考訳(メタデータ) (2024-12-09T07:46:14Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。