論文の概要: Mitigating Manipulation and Enhancing Persuasion: A Reflective Multi-Agent Approach for Legal Argument Generation
- arxiv url: http://arxiv.org/abs/2506.02992v1
- Date: Tue, 03 Jun 2025 15:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.814425
- Title: Mitigating Manipulation and Enhancing Persuasion: A Reflective Multi-Agent Approach for Legal Argument Generation
- Title(参考訳): 操作の緩和と説得の強化: 法的問題生成のための反射的マルチエージェントアプローチ
- Authors: Li Zhang, Kevin D. Ashley,
- Abstract要約: 大規模言語モデル(LLM)は、法的議論生成のためにますます研究されている。
LLMは幻覚と未解決の説得による操作の重大なリスクを負う。
本稿では,これらの課題に対処するために,新しい反射型マルチエージェント手法を提案する。
- 参考スコア(独自算出の注目度): 4.329583019758787
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) are increasingly explored for legal argument generation, yet they pose significant risks of manipulation through hallucination and ungrounded persuasion, and often fail to utilize provided factual bases effectively or abstain when arguments are untenable. This paper introduces a novel reflective multi-agent method designed to address these challenges in the context of legally compliant persuasion. Our approach employs specialized agents--a Factor Analyst and an Argument Polisher--in an iterative refinement process to generate 3-ply legal arguments (plaintiff, defendant, rebuttal). We evaluate Reflective Multi-Agent against single-agent, enhanced-prompt single-agent, and non-reflective multi-agent baselines using four diverse LLMs (GPT-4o, GPT-4o-mini, Llama-4-Maverick-17b-128e, Llama-4-Scout-17b-16e) across three legal scenarios: "arguable", "mismatched", and "non-arguable". Results demonstrate Reflective Multi-Agent's significant superiority in successful abstention (preventing generation when arguments cannot be grounded), marked improvements in hallucination accuracy (reducing fabricated and misattributed factors), particularly in "non-arguable" scenarios, and enhanced factor utilization recall (improving the use of provided case facts). These findings suggest that structured reflection within a multi-agent framework offers a robust computable method for fostering ethical persuasion and mitigating manipulation in LLM-based legal argumentation systems, a critical step towards trustworthy AI in law. Project page: https://lizhang-aiandlaw.github.io/A-Reflective-Multi-Agent-Approach-for-Legal-Argument-Generation/
- Abstract(参考訳): 大規模言語モデル (LLMs) は、法的な議論生成のためにますます研究されているが、幻覚や未解決の説得による操作の重大なリスクを生じさせ、しばしば与えられた事実ベースを効果的に活用したり、議論が抑えられない場合に中断する。
本稿では,これらの課題に対処する反射型マルチエージェント手法を提案する。
弊社のアプローチでは, 特殊エージェント, ファクター・アナリティストとArgument Polisherを採用し, 3段階の法的議論(原告, 被告, 反論)を反復的に行う。
我々は,LLM(GPT-4o,GPT-4o-mini,Llama-4-Maverick-17b-128e,Llama-4-Scout-17b-16e)を,"arguable","mismatched","non-arguable"の3つの法的シナリオで評価した。
その結果、反射多重エージェントの棄却成功における顕著な優位性(議論の根拠付けができない場合の発生防止)、幻覚の精度の向上(製造要因と誤認要因の低減)、特に「疑わしい」シナリオにおける改善(提供された事例事実の使用改善)が示されている。
これらの結果から,多エージェントフレームワークにおける構造化反射は,LLMに基づく法的議論システムにおける倫理的説得の促進と操作を緩和する,堅牢な計算可能な手法を提供する可能性が示唆された。
プロジェクトページ:https://lizhang-aiandlaw.github.io/A-Reflective-Multi-Agent-Approach-for-Legal-Argument-Generation/
関連論文リスト
- Measuring Faithfulness and Abstention: An Automated Pipeline for Evaluating LLM-Generated 3-ply Case-Based Legal Arguments [4.151328330778482]
大規模言語モデル(LLM)は、引数生成のような複雑な法的タスクの可能性を実証する。
本稿では,LLMの性能を評価するための自動パイプラインを提案する。
我々は、幻覚を、入力ケース素材に存在しない要因の生成と、モデルが引数の生成を控える能力と定義する。
論文 参考訳(メタデータ) (2025-05-31T19:56:40Z) - When Persuasion Overrides Truth in Multi-Agent LLM Debates: Introducing a Confidence-Weighted Persuasion Override Rate (CW-POR) [0.46040036610482665]
多くの実世界のシナリオでは、1つの大言語モデル(LLM)が矛盾する主張に遭遇する可能性がある。
1つのLCMベースのエージェントは、TruthfulQAから現実的な回答を提供し、もう1つのエージェントは、虚偽を積極的に擁護し、同じアーキテクチャが裁判官として機能する。
信頼度重み付き説得率(CW-POR)を導入し、裁判官がどの程度の頻度で騙されるかだけでなく、その誤った選択をいかに強く信じるかを捉える。
論文 参考訳(メタデータ) (2025-04-01T02:45:02Z) - Improving LLM Reasoning with Multi-Agent Tree-of-Thought Validator Agent [9.439315294704368]
Tree of Thoughts (ToT) 法は複雑な質問応答タスクの推論を改善する可能性を示している。
マルチエージェント推論における重要な制限は、'Reasoner'エージェントによる推論経路の浅い探索である。
ToTをベースとしたReasonerエージェントとThought Validatorエージェントを組み合わせた新しいアプローチを提案する。
提案手法は,GSM8Kデータセットを用いた場合,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2024-09-17T19:54:37Z) - Think Twice Before Trusting: Self-Detection for Large Language Models through Comprehensive Answer Reflection [90.71323430635593]
本稿では, LLM生成解を超える包括的解答空間を考察した, 新たな自己検出パラダイムを提案する。
このパラダイムに基づいて、2段階のフレームワークを導入し、まずまずLLMに各候補の回答を反映し、正当化するように指示する。
このフレームワークは、優れた自己検出のための既存のアプローチとシームレスに統合できる。
論文 参考訳(メタデータ) (2024-03-15T02:38:26Z) - "Reasoning" with Rhetoric: On the Style-Evidence Tradeoff in LLM-Generated Counter-Arguments [11.243184875465788]
大規模言語モデル(LLM)はエビデンスベースでスタイリスティックな反論を生成する上で重要な役割を果たしている。
これまでの研究では、明白さとスタイルのバランスを無視することがしばしばあり、これは説得力のある議論に不可欠である。
提案手法の有効性を検証し,38,000の正答率からなる新しいデータセットであるCounterfireにおける正答率を用いた正答率生成の有効性を検討した。
論文 参考訳(メタデータ) (2024-02-13T14:53:12Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。