論文の概要: LLMs for LLMs: A Structured Prompting Methodology for Long Legal Documents
- arxiv url: http://arxiv.org/abs/2509.02241v1
- Date: Tue, 02 Sep 2025 12:09:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:04.016619
- Title: LLMs for LLMs: A Structured Prompting Methodology for Long Legal Documents
- Title(参考訳): LLMs for LLMs:長文文書の構造化プロンプト手法
- Authors: Strahinja Klem, Noura Al Moubayed,
- Abstract要約: 我々は、しばしば高価な微調整の代替として、構造化プロンプト手法を提案する。
我々は、情報検索のタスクについて、CUADデータセットから長い法的文書をタグ付けする。
そこで我々は,分布型局所化と逆心身重みの導入により,結果の候補選択問題に取り組んだ。
- 参考スコア(独自算出の注目度): 3.887688898850802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of Large Language Models (LLMs) has had a profoundly transformative effect on a number of fields and domains. However, their uptake in Law has proven more challenging due to the important issues of reliability and transparency. In this study, we present a structured prompting methodology as a viable alternative to the often expensive fine-tuning, with the capability of tacking long legal documents from the CUAD dataset on the task of information retrieval. Each document is first split into chunks via a system of chunking and augmentation, addressing the long document problem. Then, alongside an engineered prompt, the input is fed into QWEN-2 to produce a set of answers for each question. Finally, we tackle the resulting candidate selection problem with the introduction of the Distribution-based Localisation and Inverse Cardinality Weighting heuristics. This approach leverages a general purpose model to promote long term scalability, prompt engineering to increase reliability and the two heuristic strategies to reduce the impact of the black box effect. Whilst our model performs up to 9\% better than the previously presented method, reaching state-of-the-art performance, it also highlights the limiting factor of current automatic evaluation metrics for question answering, serving as a call to action for future research. However, the chief aim of this work is to underscore the potential of structured prompt engineering as a useful, yet under-explored, tool in ensuring accountability and responsibility of AI in the legal domain, and beyond.
- Abstract(参考訳): LLM(Large Language Models)の台頭は、多くの分野やドメインに大きな変革をもたらした。
しかし、信頼性と透明性の重要な問題により、彼らの法律への取り込みはより困難であることが証明されている。
本研究では,情報検索のタスクにおいて,CUADデータセットから長い法的文書を抽出する機能を備えた,高額なファインタニングの代替手段として構造化プロンプト手法を提案する。
各ドキュメントは、まずチャンクと拡張のシステムを介してチャンクに分割され、長いドキュメントの問題に対処する。
そして、エンジニアリングされたプロンプトとともに、入力をQWEN-2に入力し、各質問に対する一連の回答を生成する。
最後に,分布型局所化法と逆心身重みヒューリスティック法を導入することにより,結果の候補選択問題に取り組む。
このアプローチは、長期的なスケーラビリティを促進するための汎用モデルを活用し、信頼性を高めるためのエンジニアリングと、ブラックボックス効果の影響を減らすための2つのヒューリスティック戦略を推進します。
このモデルでは,従来の手法よりも最大9倍の精度で動作し,最先端の性能に達する一方で,質問応答のための現在の自動評価指標の制限要因も強調し,今後の研究の行動へのコールとして機能する。
しかし、この研究の主な目的は、法的領域などにおけるAIのアカウンタビリティと責任を保証するツールとして、構造化されたプロンプトエンジニアリングの可能性を明らかにすることである。
関連論文リスト
- MDBench: A Synthetic Multi-Document Reasoning Benchmark Generated with Knowledge Guidance [5.192956837901584]
MDBenchは,多文書推論のタスクにおいて,大規模言語モジュール (LLM) を評価するための新しいデータセットである。
我々は、新しい合成生成プロセスを使用し、困難な文書セットを制御および効率よく生成することができる。
MDBENCHがすべての手法において重要な課題となることを発見した。
論文 参考訳(メタデータ) (2025-06-17T19:14:30Z) - AutoRev: Automatic Peer Review System for Academic Research Papers [9.269282930029856]
AutoRevは学術研究論文の自動ピアレビューシステムである。
私たちのフレームワークは学術文書をグラフとして表現し、最も重要なパスの抽出を可能にします。
レビュー生成に適用すると、平均58.72%のSOTAベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-20T13:59:58Z) - Efficient Inference for Large Reasoning Models: A Survey [74.17203483365171]
LRM(Large Reasoning Models)は、Large Language Models(LLM)の推論能力を大幅に向上させる。
しかし、それらの熟考的推論プロセスはトークンの使用、メモリ消費、推論時間に非効率をもたらす。
本調査では, LRMに特化して設計された効率的な推論手法を概説し, 推論品質を維持しつつトークンの非効率を緩和することに着目した。
論文 参考訳(メタデータ) (2025-03-29T13:27:46Z) - Vietnamese Legal Information Retrieval in Question-Answering System [0.0]
Retrieval Augmented Generation (RAG)は,大規模言語モデル(LLM)の能力向上に大きく貢献している。
しかしながら、RAGはいくつかの課題のためにベトナム語に適用されると、しばしば不足する。
本報告では,これらの課題に対処するための3つの主な修正点を紹介する。
論文 参考訳(メタデータ) (2024-09-05T02:34:05Z) - Empowering Prior to Court Legal Analysis: A Transparent and Accessible Dataset for Defensive Statement Classification and Interpretation [5.646219481667151]
本稿では,裁判所の手続きに先立って,警察の面接中に作成された文の分類に適した新しいデータセットを提案する。
本稿では,直感的文と真偽を区別し,最先端のパフォーマンスを実現するための微調整DistilBERTモデルを提案する。
我々はまた、法律専門家と非専門主義者の両方がシステムと対話し、利益を得ることを可能にするXAIインターフェースも提示する。
論文 参考訳(メタデータ) (2024-05-17T11:22:27Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - Editing Large Language Models: Problems, Methods, and Opportunities [51.903537096207]
本稿では, LLMのモデル編集に関わる問題, 方法, 機会を深く探究する。
本稿では,モデル編集に関わるタスク定義と課題の概観と,現在処理中の最も進歩的な手法の詳細な実証分析について述べる。
本研究の目的は,各編集手法の有効性と実現可能性に関する貴重な知見を提供することであり,特定のタスクやコンテキストに対して,最も適切な方法の選択に関する情報決定を行う上で,コミュニティを支援することである。
論文 参考訳(メタデータ) (2023-05-22T16:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。