論文の概要: LegalSim: Multi-Agent Simulation of Legal Systems for Discovering Procedural Exploits
- arxiv url: http://arxiv.org/abs/2510.03405v1
- Date: Fri, 03 Oct 2025 18:01:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.025251
- Title: LegalSim: Multi-Agent Simulation of Legal Systems for Discovering Procedural Exploits
- Title(参考訳): LegalSim: 手続き的爆発を発見するための法制度のマルチエージェントシミュレーション
- Authors: Sanket Badhe,
- Abstract要約: 我々は、AIシステムが符号化ルールにおける手続き的弱点をどのように活用できるかを探求する、敵対的法的手続のモジュラーマルチエージェントシミュレーションであるLegalSimを提案する。
PPO, 文脈的バンディット, LLM, 直接 LLM ポリシ, 手作りの4つのポリシーを比較し, バイナリケースの結果を最適化する代わりに, エージェントを効果的な勝利率を用いて訓練・評価し, 対向コストインフレーション, カレンダー圧力, 低利得の決済圧力, ルール準拠のマージンを組み合わせた複合エクスプロイトスコアを作成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present LegalSim, a modular multi-agent simulation of adversarial legal proceedings that explores how AI systems can exploit procedural weaknesses in codified rules. Plaintiff and defendant agents choose from a constrained action space (for example, discovery requests, motions, meet-and-confer, sanctions) governed by a JSON rules engine, while a stochastic judge model with calibrated grant rates, cost allocations, and sanction tendencies resolves outcomes. We compare four policies: PPO, a contextual bandit with an LLM, a direct LLM policy, and a hand-crafted heuristic; Instead of optimizing binary case outcomes, agents are trained and evaluated using effective win rate and a composite exploit score that combines opponent-cost inflation, calendar pressure, settlement pressure at low merit, and a rule-compliance margin. Across configurable regimes (e.g., bankruptcy stays, inter partes review, tax procedures) and heterogeneous judges, we observe emergent ``exploit chains'', such as cost-inflating discovery sequences and calendar-pressure tactics that remain procedurally valid yet systemically harmful. Evaluation via cross-play and Bradley-Terry ratings shows, PPO wins more often, the bandit is the most consistently competitive across opponents, the LLM trails them, and the heuristic is weakest. The results are stable in judge settings, and the simulation reveals emergent exploit chains, motivating red-teaming of legal rule systems in addition to model-level testing.
- Abstract(参考訳): 我々は、AIシステムが符号化ルールにおける手続き的弱点をどのように活用できるかを探求する、敵対的法的手続のモジュラーマルチエージェントシミュレーションであるLegalSimを提案する。
原告と被告のエージェントは、JSONルールエンジンが管理する制約された行動空間(例えば、発見要求、動き、合意、制裁)から選択する。
PPO, 文脈的バンディット, LLM, 直接的 LLM ポリシ, 手作り的ヒューリスティックの4つのポリシーを比較し, バイナリケース結果の最適化に代えて, 効率の良い勝利率と, 対価のインフレ, カレンダーの圧力, 低利得の決済圧力, ルール準拠のマージンを組み合わせた複合エクスプロイトスコアを用いて, エージェントを訓練・評価する。
コンフィグアブルな体制(倒産、間欠的審査、税制手続など)と異質な裁判官の間では、コストインフレーションの発見シーケンスや、手続き的に有効でありながら体系的に有害なカレンダープレッシャー戦術などの創発的な「爆発連鎖」が観察される。
クロスプレイとブラッドリー・テリーの評価による評価は、PPOがより頻繁に勝利し、バンドイットは対戦相手の中で最も一貫して競争力があり、LSMはそれらを追尾し、ヒューリスティックは最も弱いことを示している。
結果は判断設定で安定しており、シミュレーションでは、モデルレベルのテストに加えて、法則システムの再チーム化を動機とする、創発的なエクスプロイトチェーンが明らかになっている。
関連論文リスト
- Agentic Reinforcement Learning with Implicit Step Rewards [92.26560379363492]
大規模言語モデル (LLMs) は強化学習 (agentic RL) を用いた自律的エージェントとして発展している。
我々は,標準RLアルゴリズムとシームレスに統合された一般的なクレジット割り当て戦略であるエージェントRL(iStar)について,暗黙的なステップ報酬を導入する。
我々は,WebShopとVisualSokobanを含む3つのエージェントベンチマークと,SOTOPIAにおける検証不可能な報酬とのオープンなソーシャルインタラクションについて評価した。
論文 参考訳(メタデータ) (2025-09-23T16:15:42Z) - LLMs Can't Handle Peer Pressure: Crumbling under Multi-Agent Social Interactions [35.71511502901056]
大規模言語モデル(LLM)は、コラボレーションインテリジェンスのコンポーネントとして、マルチエージェントシステムにますます多くデプロイされている。
LLMが過去の印象からの信頼をいかに形成し、誤報に抵抗し、相互作用中にピアインプットを統合するかを検討する。
KAIROSは、クイズコンテストをシミュレーションするベンチマークで、信頼性の異なるピアエージェントを提示する。
論文 参考訳(メタデータ) (2025-08-24T09:58:10Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - Adaptive Opponent Policy Detection in Multi-Agent MDPs: Real-Time Strategy Switch Identification Using Running Error Estimation [1.079960007119637]
OPS-DeMoは、動的エラー減衰を利用して相手のポリシーの変更を検出するオンラインアルゴリズムである。
提案手法は,プレデター・プレイ設定のような動的シナリオにおいて,PPO学習モデルよりも優れている。
論文 参考訳(メタデータ) (2024-06-10T17:34:44Z) - Provably Mitigating Overoptimization in RLHF: Your SFT Loss is Implicitly an Adversarial Regularizer [52.09480867526656]
人間の嗜好を学習する際の分布変化と不確実性の一形態として,不一致の原因を同定する。
過度な最適化を緩和するために、まず、逆選択された報酬モデルに最適なポリシーを選択する理論アルゴリズムを提案する。
報奨モデルとそれに対応する最適ポリシーの等価性を用いて、優先最適化損失と教師付き学習損失を組み合わせた単純な目的を特徴とする。
論文 参考訳(メタデータ) (2024-05-26T05:38:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。