論文の概要: NomicLaw: Emergent Trust and Strategic Argumentation in LLMs During Collaborative Law-Making
- arxiv url: http://arxiv.org/abs/2508.05344v1
- Date: Thu, 07 Aug 2025 12:49:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.860609
- Title: NomicLaw: Emergent Trust and Strategic Argumentation in LLMs During Collaborative Law-Making
- Title(参考訳): NomicLaw:LLMにおける創発的信頼と戦略的議論
- Authors: Asutosh Hota, Jussi P. P. Jokinen,
- Abstract要約: 構造化マルチエージェントシミュレーションであるNomicLawを導入する。
投票パターンを通じて信頼と互恵性を定量的に測定し、エージェントが提案を正当化するために戦略的言語をどのように利用するかを質的に評価する。
我々の結果は,10のオープンソースLCMの潜伏する社会的推論と説得能力を強調し,将来のAIシステムの設計に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 6.56837855642886
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in large language models (LLMs) have extended their capabilities from basic text processing to complex reasoning tasks, including legal interpretation, argumentation, and strategic interaction. However, empirical understanding of LLM behavior in open-ended, multi-agent settings especially those involving deliberation over legal and ethical dilemmas remains limited. We introduce NomicLaw, a structured multi-agent simulation where LLMs engage in collaborative law-making, responding to complex legal vignettes by proposing rules, justifying them, and voting on peer proposals. We quantitatively measure trust and reciprocity via voting patterns and qualitatively assess how agents use strategic language to justify proposals and influence outcomes. Experiments involving homogeneous and heterogeneous LLM groups demonstrate how agents spontaneously form alliances, betray trust, and adapt their rhetoric to shape collective decisions. Our results highlight the latent social reasoning and persuasive capabilities of ten open-source LLMs and provide insights into the design of future AI systems capable of autonomous negotiation, coordination and drafting legislation in legal settings.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、基本的なテキスト処理から、法的解釈、議論、戦略的相互作用を含む複雑な推論タスクまで、その能力を拡張してきた。
しかし、オープンエンドでマルチエージェントな環境でのLCMの行動に関する実証的な理解、特に法的および倫理的ジレンマに関する熟考に関わるものについては、依然として限られている。
構造化されたマルチエージェントシミュレーションであるNomicLawを導入し、LCMは共同で法律作成を行い、ルールを提案し、正当化し、ピア提案に投票することで、複雑な法律ヴィグネットに応答する。
投票パターンを通じて信頼と互恵性を定量的に測定し、エージェントが戦略言語を使って提案を正当化し、結果に影響を与える方法を質的に評価する。
均質で異質なLLMグループを含む実験は、エージェントが自発的にアライアンスを形成し、信頼を裏切ったり、彼らの修辞学に適応して集団決定を形作るかを示す。
我々の結果は,10のオープンソースLCMの潜伏する社会的推論と説得力を強調し,自律的な交渉,調整,法的規定の起草が可能な将来のAIシステムの設計に関する洞察を提供する。
関連論文リスト
- Corrupted by Reasoning: Reasoning Language Models Become Free-Riders in Public Goods Games [87.5673042805229]
大規模言語モデルは、アライメント、堅牢性、安全なデプロイメントを保証する上で、いかに自己関心と集合的幸福のバランスをとるかが重要な課題である。
我々は、行動経済学から制度的に選択した公共財ゲームに適応し、異なるLLMがいかに社会的ジレンマをナビゲートするかを観察することができる。
意外なことに、o1シリーズのようなLCMの推論は、協調にかなり苦労している。
論文 参考訳(メタデータ) (2025-06-29T15:02:47Z) - From Legal Texts to Defeasible Deontic Logic via LLMs: A Study in Automated Semantic Analysis [0.0]
本稿では,大言語モデル(LLM)を用いた法文の自動意味解析への新しいアプローチを提案する。
本稿では、複雑な規範言語を原子スニペットに分割し、デオン規則を抽出し、それらを構文的・意味的コヒーレンスとして評価する構造化パイプラインを提案する。
論文 参考訳(メタデータ) (2025-06-10T15:25:19Z) - Arbiters of Ambivalence: Challenges of Using LLMs in No-Consensus Tasks [52.098988739649705]
本研究では, LLMのバイアスと限界について, 応答生成器, 判定器, 討論器の3つの役割について検討した。
我々は、様々な先行的曖昧なシナリオを含む例をキュレートすることで、合意なしのベンチマークを開発する。
以上の結果から, LLMは, オープンエンドの回答を生成する際に, 曖昧な評価を行うことができる一方で, 審査員や討論者として採用する場合は, 合意なしのトピックにスタンスを取る傾向が示唆された。
論文 参考訳(メタデータ) (2025-05-28T01:31:54Z) - AUTOLAW: Enhancing Legal Compliance in Large Language Models via Case Law Generation and Jury-Inspired Deliberation [5.732271982985626]
AutoLawは、ドメイン固有の大規模言語モデル(LLM)のための新しい違反検出フレームワークである。
LLMの法的コンプライアンスを強化するために、敵対的なデータ生成と陪審に触発された審議プロセスを組み合わせる。
本研究は, 法的不一致を適応的に調査し, 信頼性の高い文脈対応の判断を下すフレームワークの能力を強調した。
論文 参考訳(メタデータ) (2025-05-20T07:09:13Z) - An Explicit Syllogistic Legal Reasoning Framework for Large Language Models [5.501226256903341]
大規模言語モデル(LLM)は法的問題に答えることができるが、しばしば明示的なシロジック推論に苦慮する。
我々は,LLMが明示的なシロジックな法的推論を行えるように設計された新しいフレームワークであるSyLeRを紹介した。
SyLeRは、関係する法規や前例を合成するために、木構造的階層的検索機構を使用している。
論文 参考訳(メタデータ) (2025-04-05T03:34:51Z) - Societal Alignment Frameworks Can Improve LLM Alignment [50.97852062232431]
LLMアライメントの改善には、社会的アライメントフレームワークからの洞察を取り入れる必要がある、と我々は主張する。
次に,LLMアライメントにおける社会的アライメント・フレームワークの不確実性について検討する。
我々は、LLMアライメントに関する代替的な見解を提供し、その目的の未定義の性質を機会としてフレーミングすることで、議論を終わらせる。
論文 参考訳(メタデータ) (2025-02-27T13:26:07Z) - CitaLaw: Enhancing LLM with Citations in Legal Domain [5.249003454314636]
CitaLaw は LLM が適切な引用で合法的に音声応答を生成できる能力を評価するために設計された最初のベンチマークである。
CitaLawは、法記事の包括的コーパスと、前例をリファレンスプールとして組み合わせた、平民と実践者の両方に多様な法的質問を特徴としている。
論文 参考訳(メタデータ) (2024-12-19T06:14:20Z) - Can Large Language Models Grasp Legal Theories? Enhance Legal Reasoning with Insights from Multi-Agent Collaboration [27.047809869136458]
大きな言語モデル(LLM)は、法的理論を完全に理解し、法的推論タスクを実行するのに苦労する可能性がある。
法理論と推論能力に対するLLMの理解をよりよく評価するための課題(電荷予測の解釈)を導入する。
複雑な法的推論機能を改善するためのマルチエージェントフレームワークも提案する。
論文 参考訳(メタデータ) (2024-10-03T14:15:00Z) - Cooperate or Collapse: Emergence of Sustainable Cooperation in a Society of LLM Agents [101.17919953243107]
GovSimは、大規模言語モデル(LLM)における戦略的相互作用と協調的意思決定を研究するために設計された生成シミュレーションプラットフォームである。
最強のLSMエージェントを除く全てのエージェントは、GovSimの持続的均衡を達成することができず、生存率は54%以下である。
道徳的思考の理論である「大学化」に基づく推論を活用するエージェントは、持続可能性を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-04-25T15:59:16Z) - A Comprehensive Evaluation of Large Language Models on Legal Judgment
Prediction [60.70089334782383]
大規模言語モデル(LLM)は、ドメイン固有のアプリケーションに大きな可能性を示している。
GPT-4の法律評価をめぐる近年の論争は、現実の法的タスクにおけるパフォーマンスに関する疑問を提起している。
我々は,LLMに基づく実践的ベースラインソリューションを設計し,法的判断予測の課題を検証した。
論文 参考訳(メタデータ) (2023-10-18T07:38:04Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Large Language Models as Tax Attorneys: A Case Study in Legal
Capabilities Emergence [5.07013500385659]
本稿では,税法の適用におけるLarge Language Models(LLM)の機能について考察する。
実験では,その後のOpenAIモデルリリースにおけるパフォーマンスの向上とともに,新たな法的理解能力を実証した。
発見は、特に拡張の促進と正しい法的文書と組み合わせることで、高いレベルの精度で実行可能であるが、専門家の税務弁護士レベルではまだ実行できないことを示している。
論文 参考訳(メタデータ) (2023-06-12T12:40:48Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。