論文の概要: Simulating Dispute Mediation with LLM-Based Agents for Legal Research
- arxiv url: http://arxiv.org/abs/2509.06586v1
- Date: Mon, 08 Sep 2025 11:56:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.105592
- Title: Simulating Dispute Mediation with LLM-Based Agents for Legal Research
- Title(参考訳): 法的研究のためのLSM系薬剤による紛争治療のシミュレーション
- Authors: Junjie Chen, Haitao Li, Minghao Qin, Yujia Zhou, Yanxue Ren, Wuyue Wang, Yiqun Liu, Yueyue Wu, Qingyao Ai,
- Abstract要約: 我々は、紛争調停をシミュレートする最初の LLM ベースのエージェントフレームワークである AgentMediation を提案する。
現実世界の紛争に根ざした現実的な仲介プロセスをシミュレートし、紛争戦略、紛争原因、仲介者の専門知識といった主要な変数に対する制御された実験を可能にする。
AgentMediationは、法律研究における社会科学とAIのより深い統合の道を開く。
- 参考スコア(独自算出の注目度): 31.984184586499683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Legal dispute mediation plays a crucial role in resolving civil disputes, yet its empirical study is limited by privacy constraints and complex multivariate interactions. To address this limitation, we present AgentMediation, the first LLM-based agent framework for simulating dispute mediation. It simulates realistic mediation processes grounded in real-world disputes and enables controlled experimentation on key variables such as disputant strategies, dispute causes, and mediator expertise. Our empirical analysis reveals patterns consistent with sociological theories, including Group Polarization and Surface-level Consensus. As a comprehensive and extensible platform, AgentMediation paves the way for deeper integration of social science and AI in legal research.
- Abstract(参考訳): 法的な紛争調停は民事紛争を解決する上で重要な役割を担っているが、その実証的研究はプライバシーの制約と複雑な多変量相互作用によって制限されている。
この制限に対処するため、紛争調停をシミュレートする最初のLCMベースのエージェントフレームワークであるAgentMediationを提案する。
現実世界の紛争に根ざした現実的な仲介プロセスをシミュレートし、紛争戦略、紛争原因、仲介者の専門知識といった主要な変数に対する制御された実験を可能にする。
我々の経験的分析は、群分極や表面のコンセンサスなど、社会学理論と整合したパターンを明らかにしている。
AgentMediationは包括的で拡張可能なプラットフォームであり、法律研究における社会科学とAIのより深い統合の道を開く。
関連論文リスト
- LLMs Can't Handle Peer Pressure: Crumbling under Multi-Agent Social Interactions [35.71511502901056]
大規模言語モデル(LLM)は、コラボレーションインテリジェンスのコンポーネントとして、マルチエージェントシステムにますます多くデプロイされている。
LLMが過去の印象からの信頼をいかに形成し、誤報に抵抗し、相互作用中にピアインプットを統合するかを検討する。
KAIROSは、クイズコンテストをシミュレーションするベンチマークで、信頼性の異なるピアエージェントを提示する。
論文 参考訳(メタデータ) (2025-08-24T09:58:10Z) - NomicLaw: Emergent Trust and Strategic Argumentation in LLMs During Collaborative Law-Making [6.56837855642886]
構造化マルチエージェントシミュレーションであるNomicLawを導入する。
投票パターンを通じて信頼と互恵性を定量的に測定し、エージェントが提案を正当化するために戦略的言語をどのように利用するかを質的に評価する。
我々の結果は,10のオープンソースLCMの潜伏する社会的推論と説得能力を強調し,将来のAIシステムの設計に関する洞察を提供する。
論文 参考訳(メタデータ) (2025-08-07T12:49:44Z) - An Empirical Study of Group Conformity in Multi-Agent Systems [0.26999000177990923]
本研究では,Large Language Models (LLMs) が,5つの論点に関する議論を通じて世論を形成する方法について考察する。
2500以上の議論をシミュレートすることで、当初中立なエージェントが中心的な処分を課し、時間とともに特定のスタンスを採用するかを分析します。
論文 参考訳(メタデータ) (2025-06-02T05:22:29Z) - Silence is Not Consensus: Disrupting Agreement Bias in Multi-Agent LLMs via Catfish Agent for Clinical Decision Making [80.94208848596215]
提案する概念は「Catfish Agent」である。これは、構造的不満を注入し、無声な合意に反するように設計された役割特化LDMである。
組織心理学において「ナマズ・エフェクト」にインスパイアされたカマズ・エージェントは、より深い推論を促進するために、新たなコンセンサスに挑戦するように設計されている。
論文 参考訳(メタデータ) (2025-05-27T17:59:50Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - How Vital is the Jurisprudential Relevance: Law Article Intervened Legal Case Retrieval and Matching [31.378981566988063]
法的ケース検索(LCR)は、与えられたクエリに基づいて、同等の法的ケースを自動的に検索することを目的としている。
これに対処するためには、司法ドメイン内の独自の法的・合理的な類似性を評価するのが難しい課題だ。
上記の課題を解決するために, LCM-LAI というエンド・ツー・エンドのモデルを提案する。
論文 参考訳(メタデータ) (2025-02-25T15:29:07Z) - Do as We Do, Not as You Think: the Conformity of Large Language Models [46.23852835759767]
本稿では,大規模言語モデル(LLM)による協調型AIシステムにおける適合性について述べる。
適合性の存在、適合性に影響を与える要因、潜在的な緩和戦略の3つの側面に焦点を当てる。
本分析では, 相互作用時間や過半数サイズなど, 適合性に影響を与える要因を解明し, 対象エージェントが適合行動をどのように合理化するかを検討する。
論文 参考訳(メタデータ) (2025-01-23T04:50:03Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。