論文の概要: LawLuo: A Multi-Agent Collaborative Framework for Multi-Round Chinese Legal Consultation
- arxiv url: http://arxiv.org/abs/2407.16252v3
- Date: Mon, 16 Dec 2024 05:53:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:53:25.650131
- Title: LawLuo: A Multi-Agent Collaborative Framework for Multi-Round Chinese Legal Consultation
- Title(参考訳): LawLuo: 複数ルートの中国法律コンサルテーションのための多言語協調フレームワーク
- Authors: Jingyun Sun, Chengxiao Dai, Zhongze Luo, Yangbo Chang, Yang Li,
- Abstract要約: LawLuoは、マルチターン中国の法律相談のためのマルチエージェントフレームワークである。
LawLuoには、ユーザの意図を評価して弁護士エージェントを選択する受付エージェントと、ユーザと対話する弁護士エージェントと、会話記録を整理して相談報告を生成する秘書エージェントと、4つのエージェントが含まれている。
これらのエージェントの相互作用は、実際の法律事務所の運営を模倣している。
- 参考スコア(独自算出の注目度): 1.9857357818932064
- License:
- Abstract: Legal Large Language Models (LLMs) have shown promise in providing legal consultations to non-experts. However, most existing Chinese legal consultation models are based on single-agent systems, which differ from real-world legal consultations, where multiple professionals collaborate to offer more tailored responses. To better simulate real consultations, we propose LawLuo, a multi-agent framework for multi-turn Chinese legal consultations. LawLuo includes four agents: the receptionist agent, which assesses user intent and selects a lawyer agent; the lawyer agent, which interacts with the user; the secretary agent, which organizes conversation records and generates consultation reports; and the boss agent, which evaluates the performance of the lawyer and secretary agents to ensure optimal results. These agents' interactions mimic the operations of real law firms. To train them to follow different legal instructions, we developed distinct fine-tuning datasets. We also introduce a case graph-based RAG to help the lawyer agent address vague user inputs. Experimental results show that LawLuo outperforms baselines in generating more personalized and professional responses, handling ambiguous queries, and following legal instructions in multi-turn conversations. Our full code and constructed datasets will be open-sourced upon paper acceptance.
- Abstract(参考訳): 法的な大規模言語モデル(LLM)は、非専門家に法的諮問を提供することを約束している。
しかし、既存の中国の法律コンサルテーションモデルは、現実の法律コンサルテーションとは異なる単一エージェントシステムに基づいており、複数の専門家がより適切な回答を提供するために協力している。
そこで本研究では,中国におけるマルチターン法律相談のためのマルチエージェントフレームワークであるLawLuoを提案する。
LawLuoは、ユーザ意図を評価して弁護士エージェントを選択する受付エージェントと、ユーザと対話する弁護士エージェントと、会話記録を整理して相談報告を生成する秘書エージェントと、弁護士および秘書エージェントのパフォーマンスを評価するボスエージェントと、を含む。
これらのエージェントの相互作用は、実際の法律事務所の運営を模倣している。
異なる法的指示に従うように訓練するために、我々は異なる微調整データセットを開発した。
また、弁護士エージェントがあいまいなユーザ入力に対処するためのケースグラフベースのRAGも導入する。
実験の結果,LawLuoは,よりパーソナライズされたプロフェッショナルな応答を生成し,あいまいなクエリを処理し,マルチターン会話における法的指示に従う上で,ベースラインよりも優れていた。
私たちの完全なコードと構築されたデータセットは、論文の受理によってオープンソース化されます。
関連論文リスト
- DeliLaw: A Chinese Legal Counselling System Based on a Large Language Model [16.63238943983347]
DeliLawは、大きな言語モデルに基づく中国の法律カウンセリングシステムである。
ユーザーはDeliLawシステム上で、専門家の法的質問や法的記事の検索、関連する判断事例などを対話モードで参照することができる。
論文 参考訳(メタデータ) (2024-08-01T07:54:52Z) - InternLM-Law: An Open Source Chinese Legal Large Language Model [72.2589401309848]
InternLM-Lawは、中国法に関する様々な法的クエリに対処するための特殊なLLMである。
われわれは、中国法域に100万以上のクエリを含むデータセットを慎重に構築する。
InternLM-LawはLawBench上で最高の平均性能を達成し、20サブタスク中13サブタスクでGPT-4を含む最先端モデルを上回っている。
論文 参考訳(メタデータ) (2024-06-21T06:19:03Z) - Knowledge-Infused Legal Wisdom: Navigating LLM Consultation through the Lens of Diagnostics and Positive-Unlabeled Reinforcement Learning [19.55121050697779]
本稿では、適応型弁護士のような診断質問を利用して、追加の事例情報を収集する診断法大言語モデル(D3LM)を提案する。
D3LMは、革新的なグラフベースのPositive-Unlabeled Reinforcement Learning (PURL)アルゴリズムを導入し、批判的な質問を生成する。
また,米国事例法データベースに基づく新たな英語CVGデータセットも導入した。
論文 参考訳(メタデータ) (2024-06-05T19:47:35Z) - (A)I Am Not a Lawyer, But...: Engaging Legal Experts towards Responsible LLM Policies for Legal Advice [8.48013392781081]
大規模言語モデル(LLM)は、法的なアドバイスを含む幅広い専門分野のアドバイスをユーザに提供しやすくなっている。
ケースベース推論にインスパイアされた手法を用いて,20名の法律専門家とワークショップを行った。
以上より,無許可の法律実務,機密性,不正確な助言に対する責任など,新たな法的考慮事項が明らかになった。
論文 参考訳(メタデータ) (2024-02-02T19:35:34Z) - Large Language Models and Explainable Law: a Hybrid Methodology [44.99833362998488]
規則に基づく法体系のアクセシビリティ, 利用, 説明可能性を高めるため, LLMを提唱する。
ルールベースシステムによる説明を翻訳するために, LLM の利用の可能性を探るため, 提案手法を開発した。
論文 参考訳(メタデータ) (2023-11-20T14:47:20Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - LawBench: Benchmarking Legal Knowledge of Large Language Models [35.2812008533622]
大規模言語モデル(LLM)は様々な面で強力な能力を示している。
法的知識がどの程度あるか、そして法的関連タスクを確実に実行できるかは不明だ。
ローベンチは、3つの認知レベルからLLMの法的な能力を正確に評価するために細心の注意を払って設計されている。
論文 参考訳(メタデータ) (2023-09-28T09:35:59Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - SAILER: Structure-aware Pre-trained Language Model for Legal Case
Retrieval [75.05173891207214]
判例検索は知的法体系において中心的な役割を果たす。
既存の言語モデルの多くは、異なる構造間の長距離依存関係を理解するのが難しい。
本稿では, LEgal ケース検索のための構造対応プレトランザクショナル言語モデルを提案する。
論文 参考訳(メタデータ) (2023-04-22T10:47:01Z) - Lawformer: A Pre-trained Language Model for Chinese Legal Long Documents [56.40163943394202]
我々は,中国法定長文理解のためのLongformerベースの事前学習言語モデル,Lawformerをリリースする。
判決の予測,類似事例の検索,法的読解,法的質問の回答など,さまざまな法務上の課題について法務担当者を評価した。
論文 参考訳(メタデータ) (2021-05-09T09:39:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。