論文の概要: GuRE:Generative Query REwriter for Legal Passage Retrieval
- arxiv url: http://arxiv.org/abs/2505.12950v1
- Date: Mon, 19 May 2025 10:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.540205
- Title: GuRE:Generative Query REwriter for Legal Passage Retrieval
- Title(参考訳): GuRE: 法定パス検索のための生成クエリリライタ
- Authors: Daehee Kim, Deokhyung Kang, Jonghwi Kim, Sangwon Ryu, Gary Geunbae Lee,
- Abstract要約: LPR(Lawal Passage Retrieval)システムは、法的議論を起草する際の時間節約を支援するため、重要なシステムである。
主な理由は、クエリとターゲットパスの間の大きな語彙ミスマッチである。
本稿では,簡易かつ効果的な生成クエリリライタ(GuRE)を提案する。
- 参考スコア(独自算出の注目度): 4.170994234169557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Legal Passage Retrieval (LPR) systems are crucial as they help practitioners save time when drafting legal arguments. However, it remains an underexplored avenue. One primary reason is the significant vocabulary mismatch between the query and the target passage. To address this, we propose a simple yet effective method, the Generative query REwriter (GuRE). We leverage the generative capabilities of Large Language Models (LLMs) by training the LLM for query rewriting. "Rewritten queries" help retrievers to retrieve target passages by mitigating vocabulary mismatch. Experimental results show that GuRE significantly improves performance in a retriever-agnostic manner, outperforming all baseline methods. Further analysis reveals that different training objectives lead to distinct retrieval behaviors, making GuRE more suitable than direct retriever fine-tuning for real-world applications. Codes are avaiable at github.com/daehuikim/GuRE.
- Abstract(参考訳): LPR(Lawal Passage Retrieval)システムは、法的議論を起草する際の時間節約を支援するため、重要なシステムである。
しかし、未開拓の道である。
主な理由は、クエリとターゲットパスの間の大きな語彙ミスマッチである。
そこで本研究では,ジェネレーティブ・クエリ・リライター(GuRE)という,シンプルで効果的な手法を提案する。
クエリ書き換えのためのLLMをトレーニングすることで,LLM(Large Language Models)の生成能力を活用できる。
「書き直されたクエリ」は、語彙ミスマッチを緩和することで、検索者がターゲットパスを検索するのに役立つ。
実験結果から,GuREはレトリバーに依存しない方法で性能を著しく向上し,全てのベースライン法よりも優れていた。
さらなる分析により、異なる学習目的が異なる検索行動を引き起こすことが判明し、現実世界のアプリケーションに対して直接検索するよりもGuREがより適していることが明らかになった。
コードはgithub.com/daehuikim/GuREで利用可能である。
関連論文リスト
- Learning More Effective Representations for Dense Retrieval through Deliberate Thinking Before Search [65.53881294642451]
ディリベレート思考に基づくDense Retriever (DEBATER)
DEBATERは、ステップバイステップの思考プロセスを通じて、より効果的な文書表現を学習できるようにすることにより、最近の密集型検索機能を強化している。
実験の結果,DEBATERはいくつかのベンチマークで既存手法よりも優れていた。
論文 参考訳(メタデータ) (2025-02-18T15:56:34Z) - Large Language Model Can Be a Foundation for Hidden Rationale-Based Retrieval [12.83513794686623]
本稿では,隠れ合理性検索という,より困難なタイプの検索タスクを提案し,検討する。
このような問題に対処するためには、命令調整付き大規模言語モデル(LLM)とクロスエンコーダアーキテクチャが妥当な選択である可能性がある。
我々は、RaHoReによってこの検索フレームワークを命名し、感情支援会話(ESC)におけるゼロショットおよび微調整性能上の優位性を検証した。
論文 参考訳(メタデータ) (2024-12-21T13:19:15Z) - Query Rewriting for Retrieval-Augmented Large Language Models [139.242907155883]
大規模言語モデル(LLM)は、検索対象のパイプラインで強力なブラックボックスリーダーを動作させる。
この作業では、検索拡張LDMに対する以前の検索テーマ読み込みの代わりに、新しいフレームワークであるRewrite-Retrieve-Readを導入する。
論文 参考訳(メタデータ) (2023-05-23T17:27:50Z) - Large Language Models are Strong Zero-Shot Retriever [89.16756291653371]
ゼロショットシナリオにおける大規模検索に大規模言語モデル(LLM)を適用するための簡単な手法を提案する。
我々の手法であるRetriever(LameR)は,LLM以外のニューラルモデルに基づいて構築された言語モデルである。
論文 参考訳(メタデータ) (2023-04-27T14:45:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。