論文の概要: All for law and law for all: Adaptive RAG Pipeline for Legal Research
- arxiv url: http://arxiv.org/abs/2508.13107v1
- Date: Mon, 18 Aug 2025 17:14:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.505859
- Title: All for law and law for all: Adaptive RAG Pipeline for Legal Research
- Title(参考訳): 法と法のためのすべて:法研究のための適応的なRAGパイプライン
- Authors: Figarri Keisha, Prince Singh, Pallavi, Dion Fernandes, Aravindh Manivannan, Ilham Wicaksono, Faisal Ahmad,
- Abstract要約: Retrieval-Augmented Generation (RAG) は、参照ソースで大きな言語モデル出力を基底にして幻覚を緩和する。
本稿では,LegalBenchRAGベースラインを再検討し,拡張する,エンドツーエンドのRAGパイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrieval-Augmented Generation (RAG) mitigates hallucinations by grounding large language model outputs in cited sources, a capability that is especially critical in the legal domain. We present an end-to-end RAG pipeline that revisits and extends the LegalBenchRAG baseline with three targeted enhancements: (i) a context-aware query translator that disentangles document references from natural-language questions and adapts retrieval depth and response style based on expertise and specificity, (ii) open-source retrieval strategies using SBERT and GTE embeddings that achieve substantial performance gains (improving Recall@K by 30-95\% and Precision@K by $\sim$2.5$\times$ for $K>4$) while remaining cost-efficient, and (iii) a comprehensive evaluation and generation framework that combines RAGAS, BERTScore-F1, and ROUGE-Recall to assess semantic alignment and faithfulness across models and prompt designs. Our results show that carefully designed open-source pipelines can rival or outperform proprietary approaches in retrieval quality, while a custom legal-grounded prompt consistently produces more faithful and contextually relevant answers than baseline prompting. Taken together, these contributions demonstrate the potential of task-aware, component-level tuning to deliver legally grounded, reproducible, and cost-effective RAG systems for legal research assistance.
- Abstract(参考訳): Retrieval-Augmented Generation (RAG) は、参照ソースに大規模な言語モデル出力を基盤にして幻覚を緩和する。
我々は,LegalBenchRAGベースラインを再検討し,拡張する,エンドツーエンドのRAGパイプラインを提案する。
一 自然言語の質問から文書参照を切り離し、専門性及び特異性に基づいて検索深度及び応答スタイルを適応する文脈対応クエリトランスレータ。
(ii) SBERT と GTE を組み込んだオープンソースの検索戦略(Recall@K を 30-95 %、Precision@K を $\sim$2.5$\times$ for $K>4$) で、コスト効率を保ちながら、大幅なパフォーマンス向上を実現している。
3)RAGAS、BERTScore-F1、ROUGE-Recallを組み合わせた総合的な評価・生成フレームワークで、モデル間のセマンティックアライメントと忠実さを評価し、設計を促す。
提案手法は,オープンソースパイプラインを慎重に設計することで,検索品質において独自のアプローチに対抗し,性能を向上できることを示す。
これらの貢献は、法的に基礎を置き、再現可能で、費用対効果の高いRAGシステムを提供するためのタスク認識、コンポーネントレベルのチューニングの可能性を実証するものである。
関連論文リスト
- How to Discover Knowledge for FutureG: Contextual RAG and LLM Prompting for O-RAN [5.589132273787205]
我々は5G/6Gネットワークにおいて,O-RAN(Open Radio Access Network)が非集約型AI駆動無線システムの中心となる検索拡張型質問応答フレームワークを提案する。
この課題に対処するために、我々はContextual Retrieval-Augmented Generation (Contextual RAG)を採用する。
我々は、Contextual RAGが、競争力のあるランタイムとCO2排出量を維持しながら、標準のRAGとランタイムよりも一貫して精度を向上することを示します。
論文 参考訳(メタデータ) (2025-12-18T18:03:59Z) - RouteRAG: Efficient Retrieval-Augmented Generation from Text and Graph via Reinforcement Learning [69.87510139069218]
Retrieval-Augmented Generation (RAG)は、非パラメトリック知識をLarge Language Models (LLM)に統合する
強化学習(RL)による多ターン推論へのテキストベースRAGの進歩
LLMがマルチターンおよび適応的なグラフテキストハイブリッドRAGを実現するためのRLベースのフレームワークであるモデルを導入する。
論文 参考訳(メタデータ) (2025-12-10T10:05:31Z) - Grounding Long-Context Reasoning with Contextual Normalization for Retrieval-Augmented Generation [57.97548022208733]
キー値抽出における表面的選択が精度と安定性のシフトを引き起こすことを示す。
生成前の文脈表現を適応的に標準化する戦略であるコンテキスト正規化を導入する。
論文 参考訳(メタデータ) (2025-10-15T06:28:25Z) - VeriCite: Towards Reliable Citations in Retrieval-Augmented Generation via Rigorous Verification [107.75781898355562]
証拠を厳格に検証し,回答の帰属性を高めるために設計された,VeriCiteと呼ばれる新しいフレームワークを紹介する。
我々は,5つのオープンソースLCMと4つのデータセットを対象とした実験を行い,VeriCiteが回答の正しさを維持しつつ,引用品質を大幅に向上できることを実証した。
論文 参考訳(メタデータ) (2025-10-13T13:38:54Z) - Domain-Specific Data Generation Framework for RAG Adaptation [58.20906914537952]
Retrieval-Augmented Generation (RAG)は、大規模言語モデルの言語理解と推論能力と外部検索を組み合わせ、ドメイン基底応答を可能にする。
本稿では,様々なRAG適応手法に合わせて,ドメイン基底型質問応答コンテキスト(QAC)トリプルを生成するフレームワークであるRAGenを提案する。
論文 参考訳(メタデータ) (2025-10-13T09:59:49Z) - RAGulating Compliance: A Multi-Agent Knowledge Graph for Regulatory QA [0.0]
規制コンプライアンス質問応答(QA)は、正確で検証可能な情報を必要とする。
我々は、レギュレーション三重項の知識グラフ(KG)とレトリーバル拡張生成(RAG)を統合する新しいマルチエージェントフレームワークを提案する。
我々のハイブリッドシステムは、複雑な規制クエリにおいて従来の手法よりも優れており、組込み三重項による事実の正しさが保証されている。
論文 参考訳(メタデータ) (2025-08-13T15:51:05Z) - Learning to Extract Rational Evidence via Reinforcement Learning for Retrieval-Augmented Generation [37.47571308389908]
Retrieval-Augmented Generation (RAG) はLarge Language Models (LLM) の精度を効果的に向上させる
それまでの手法では、明確な思考なしに証拠を直接抽出し、重要な手がかりをフィルタリングし、一般化に苦慮する危険性がある。
本稿では,(1)検索内容中の潜在的手がかりを明示的に推論し,(2)質問に答えるのに有用なキー手がかりを省略しないよう意識的に抽出することによる合理的証拠の抽出を学習するEvi Omniを提案する。
論文 参考訳(メタデータ) (2025-07-21T13:03:55Z) - UiS-IAI@LiveRAG: Retrieval-Augmented Information Nugget-Based Generation of Responses [11.798121559820792]
Retrieval-augmented Generation (RAG) は、事実の正しさ、ソース属性、応答完全性に関連する課題に直面している。
本稿では,検索した文書から抽出した関連情報の最小限の原子単位である情報ナゲットに基づくモジュールパイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-27T13:29:25Z) - Attributing Response to Context: A Jensen-Shannon Divergence Driven Mechanistic Study of Context Attribution in Retrieval-Augmented Generation [52.3707788779464]
我々は、コンテキストに対する属性応答(ARC-JSD)のための新しいJensen-Shannon Divergence駆動方式を提案する。
ARC-JSDは、追加の微調整、勾配計算、サロゲートモデリングなしで、重要な文脈文の効率的かつ正確な識別を可能にする。
TyDi QA, Hotpot QA, Musique など,様々なスケールの命令調整 LLM を用いたRAG ベンチマークの評価により,精度が向上し,計算効率が向上した。
論文 参考訳(メタデータ) (2025-05-22T09:04:03Z) - LegalRAG: A Hybrid RAG System for Multilingual Legal Information Retrieval [7.059964549363294]
我々は、規制文書、特にバングラデシュ警察ガゼットのための効率的なバイリンガル質問応答フレームワークを開発する。
提案手法では,情報検索と応答生成を強化するために,現代の検索拡張生成(RAG)パイプラインを用いる。
このシステムは、特定の政府法的な通知を効率的に検索し、法的な情報をよりアクセスしやすくする。
論文 参考訳(メタデータ) (2025-04-19T06:09:54Z) - Insight-RAG: Enhancing LLMs with Insight-Driven Augmentation [4.390998479503661]
本稿では,インサイトに基づく文書検索のための新しいフレームワークであるInsight-RAGを提案する。
Insight-RAG の初期段階では,従来の検索手法の代わりに LLM を用いて入力クエリとタスクを解析する。
従来のRAG手法と同様に、元のクエリを抽出した洞察と統合することにより、最終的なLCMを用いて、文脈的に豊かで正確な応答を生成する。
論文 参考訳(メタデータ) (2025-03-31T19:50:27Z) - Unanswerability Evaluation for Retrieval Augmented Generation [74.3022365715597]
UAEval4RAGは、RAGシステムが解答不能なクエリを効果的に処理できるかどうかを評価するために設計されたフレームワークである。
我々は、6つの未解決カテゴリを持つ分類を定義し、UAEval4RAGは、多様で挑戦的なクエリを自動的に合成する。
論文 参考訳(メタデータ) (2024-12-16T19:11:55Z) - Evaluating LLM-based Approaches to Legal Citation Prediction: Domain-specific Pre-training, Fine-tuning, or RAG? A Benchmark and an Australian Law Case Study [9.30538764385435]
大規模言語モデル (LLM) は法的タスクに強い可能性を示しているが、法的な引用予測の問題は未解明のままである。
AusLaw Citation Benchmarkは,オーストラリアで55万の法的事例と18,677のユニークな引用からなる実世界のデータセットである。
次に、さまざまなソリューションに対して、システマティックなベンチマークを実施します。
その結果, 一般および法定LLMは独立解として十分ではなく, ほぼゼロに近い性能を示した。
論文 参考訳(メタデータ) (2024-12-09T07:46:14Z) - SFR-RAG: Towards Contextually Faithful LLMs [57.666165819196486]
Retrieval Augmented Generation (RAG) は、外部コンテキスト情報を大言語モデル(LLM)と統合し、事実の精度と妥当性を高めるパラダイムである。
SFR-RAG(SFR-RAG)について述べる。
また、複数の人気かつ多様なRAGベンチマークをコンパイルする新しい評価フレームワークであるConBenchについても紹介する。
論文 参考訳(メタデータ) (2024-09-16T01:08:18Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
分散テキスト生成(ATG)は,RAGシステムにおける信頼性と妥当性を高めるために提案される。
本稿では,参照と回答を段階的に交互に生成する詳細なATG手法であるReClaimを提案する。
広範囲な実験により,ReClaimの有効性が検証され,90%の引用精度が得られた。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。