論文の概要: Adaptive Collaboration of Arena-Based Argumentative LLMs for Explainable and Contestable Legal Reasoning
- arxiv url: http://arxiv.org/abs/2602.18916v1
- Date: Sat, 21 Feb 2026 17:47:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.395344
- Title: Adaptive Collaboration of Arena-Based Argumentative LLMs for Explainable and Contestable Legal Reasoning
- Title(参考訳): 説明可能な法則推論のためのアリーナ法則的LLMの適応的協調
- Authors: Hoang-Loc Cao, Phuc Ho, Truong Thanh Hung Nguyen, Phuc Truong Loc Nguyen, Dinh Thien Loc Nguyen, Hung Cao,
- Abstract要約: ACALは、アリーナを基盤とした量的双極性論証フレームワーク(A-QBAF)と適応的マルチエージェント協調を統合する神経シンボルフレームワークである。
ACALは専門家のエージェントチームを動的に配置して議論を構築し、競合するクレームを判断するために衝突解決メカニズムを採用し、境界線事件に対して不確実性を認識したエスカレーションを利用する。
我々のフレームワークはHuman-in-the-Loop (HITL) の競合性ワークフローをサポートしており、ユーザーは基礎となる推論グラフを直接監査して修正して最終判断に影響を与えることができる。
- 参考スコア(独自算出の注目度): 1.4988096015658898
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Legal reasoning requires not only high accuracy but also the ability to justify decisions through verifiable and contestable arguments. However, existing Large Language Model (LLM) approaches, such as Chain-of-Thought (CoT) and Retrieval-Augmented Generation (RAG), often produce unstructured explanations that lack a formal mechanism for verification or user intervention. To address this limitation, we propose Adaptive Collaboration of Argumentative LLMs (ACAL), a neuro-symbolic framework that integrates adaptive multi-agent collaboration with an Arena-based Quantitative Bipolar Argumentation Framework (A-QBAF). ACAL dynamically deploys expert agent teams to construct arguments, employs a clash resolution mechanism to adjudicate conflicting claims, and utilizes uncertainty-aware escalation for borderline cases. Crucially, our framework supports a Human-in-the-Loop (HITL) contestability workflow, enabling users to directly audit and modify the underlying reasoning graph to influence the final judgment. Empirical evaluations on the LegalBench benchmark demonstrate that ACAL outperforms strong baselines across Gemini-2.5-Flash-Lite and Gemini-2.5-Flash architectures, effectively balancing efficient predictive performance with structured transparency and contestability. Our implementation is available at: https://github.com/loc110504/ACAL.
- Abstract(参考訳): 法的な推論には、高い正確性だけでなく、検証可能な議論を通じて決定を正当化する能力も必要である。
しかしながら、Chain-of-Thought (CoT) や Retrieval-Augmented Generation (RAG) のような既存のLarge Language Model (LLM) アプローチでは、検証やユーザ介入の正式なメカニズムが欠如している非構造的な説明がしばしば発生する。
この制限に対処するため、アリーナをベースとした量的双極性アグラデーションフレームワーク(A-QBAF)と適応的マルチエージェント協調を統合したニューロシンボリック・フレームワークであるアダプティブ・コラボレーション・オブ・アグラデーティブ・LLM(ACAL)を提案する。
ACALは専門家のエージェントチームを動的に配置して議論を構築し、競合するクレームを判断するために衝突解決メカニズムを採用し、境界線事件に対して不確実性を認識したエスカレーションを利用する。
重要な点として、我々のフレームワークはHuman-in-the-Loop(HITL)の競合性ワークフローをサポートしており、ユーザーは基礎となる推論グラフを直接監査し、修正して最終判断に影響を与えることができる。
LegalBenchベンチマークの実証的な評価によると、ACALはGemini-2.5-Flash-LiteアーキテクチャとGemini-2.5-Flashアーキテクチャで強力なベースラインを上回り、構造化された透明性と競合性によって効率的な予測性能のバランスをとる。
私たちの実装は、https://github.com/loc110504/ACAL.comで利用可能です。
関連論文リスト
- Pushing the Boundaries of Natural Reasoning: Interleaved Bonus from Formal-Logic Verification [49.506412445511934]
大きな言語モデル(LLM)は目覚ましい能力を示すが、その次は論理的不整合と報奨ハックを生み出す。
本稿では,自然言語生成プロセスと形式的記号的検証を動的にインターリーブする形式論理検証誘導フレームワークを提案する。
我々はこのフレームワークを,形式論理検証誘導制御による微調整とポリシー最適化の相乗効果を生かした,新しい2段階のトレーニングパイプラインを通じて運用する。
論文 参考訳(メタデータ) (2026-01-30T07:01:25Z) - AgenticSimLaw: A Juvenile Courtroom Multi-Agent Debate Simulation for Explainable High-Stakes Tabular Decision Making [0.6218206949753592]
我々はAgenticSimLawを紹介した。これは、透明で制御可能なテストタイム推論を提供するロール構造化マルチエージェントの議論フレームワークである。
ブラックボックスアプローチとは異なり、裁判所スタイルのオーケストレーションでは、エージェントの役割を明確に定義しています。
NLSY97データセットを用いて、この枠組みを若者の復習予測にベンチマークする。
論文 参考訳(メタデータ) (2026-01-29T16:26:10Z) - VERGE: Formal Refinement and Guidance Engine for Verifiable LLM Reasoning [4.3414302048068745]
本稿では,大規模言語モデルとSMTソルバを組み合わせたニューロシンボリック・フレームワークを提案する。
本稿では,(1)形式的意味的等価性チェックによるマルチモデルコンセンサス,(2)適切な検証戦略に異なるクレーム型を指示するセマンティックルーティング,(3)最小補正サブセットによる正確な論理的エラーローカライゼーション,の3点を紹介する。
GPT-OSS-120Bモデルでは、VERGEはシングルパスアプローチと比較して、一連の推論ベンチマークにおいて平均18.7%の性能向上を示す。
論文 参考訳(メタデータ) (2026-01-27T20:59:11Z) - Adversarial Yet Cooperative: Multi-Perspective Reasoning in Retrieved-Augmented Language Models [72.4149653187766]
本稿ではAdrialversa Reasoning RAG(ARR)というReasoner-Verifierフレームワークを提案する。
ReasonerとVerifierは、回収された証拠を推論し、プロセス認識の利点によってガイドされながら、互いの論理を批判する。
複数のベンチマーク実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2026-01-08T06:57:03Z) - VeriLLM: A Lightweight Framework for Publicly Verifiable Decentralized Inference [3.8760740008451156]
本稿では,分散言語モデル (LLM) 推論のための公開検証プロトコルであるVeriLLMを紹介する。
VeriLLMは、軽量な経験的再実行と暗号的なコミットメントを組み合わせることで、検証者は基礎となる推論コストの約1%で結果を検証することができる。
We show that VeriLLM achieve reliable public verifiability with least overhead。
論文 参考訳(メタデータ) (2025-09-29T04:07:32Z) - Retrieval is Not Enough: Enhancing RAG Reasoning through Test-Time Critique and Optimization [58.390885294401066]
Retrieval-augmented Generation (RAG) は知識基底型大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
RAGパイプラインは、モデル推論が得られた証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
批判駆動アライメント(CDA)に基づく新しい反復的枠組みであるAlignRAGを提案する。
AlignRAG-autoは、動的に洗練を終了し、批判的な反復回数を事前に指定する必要がなくなる自律的な変種である。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。