論文の概要: Hybrid Human-Agent Social Dilemmas in Energy Markets
- arxiv url: http://arxiv.org/abs/2603.11834v1
- Date: Thu, 12 Mar 2026 11:59:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:26.051516
- Title: Hybrid Human-Agent Social Dilemmas in Energy Markets
- Title(参考訳): エネルギー市場におけるハイブリッド社会ジレンマ
- Authors: Isuri Perera, Frits de Nijs, Julian Garcia,
- Abstract要約: 我々は、人間が自律的なエージェントに戦略的意思決定を委譲するハイブリッド集団において、協調行動がどのように出現するかを研究する。
協調性を高めるためにグローバルな観測可能な信号を使用する人工エージェントを導入する。
人工エージェントは学習のダイナミクスを調整結果に転換できることを示す。
- 参考スコア(独自算出の注目度): 0.45880283710344055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In hybrid populations where humans delegate strategic decision-making to autonomous agents, understanding when and how cooperative behaviors can emerge remains a key challenge. We study this problem in the context of energy load management: consumer agents schedule their appliance use under demand-dependent pricing. This structure can create a social dilemma where everybody would benefit from coordination, but in equilibrium agents often choose to incur the congestion costs that cooperative turn-taking would avoid. To address the problem of coordination, we introduce artificial agents that use globally observable signals to increase coordination. Using evolutionary dynamics, and reinforcement learning experiments, we show that artificial agents can shift the learning dynamics to favour coordination outcomes. An often neglected problem is partial adoption: what happens when the technology of artificial agents is in the early adoption stages? We analyze mixed populations of adopters and non-adopters, demonstrating that unilateral entry is feasible: adopters are not structurally penalized, and partial adoption can still improve aggregate outcomes. However, in some parameter regimes, non-adopters may benefit disproportionately from the cooperation induced by adopters. This asymmetry, while not precluding beneficial entry, warrants consideration in deployment, and highlights strategic issues around the adoption of AI technology in multiagent settings.
- Abstract(参考訳): 人間が自律的なエージェントに戦略的意思決定を委譲するハイブリッド集団では、いつ、どのように協調行動が生じるかを理解することが重要な課題である。
消費者エージェントは需要に依存した価格でアプライアンスの使用をスケジュールする。
この構造は、皆が協調の恩恵を受けるような社会的ジレンマを作ることができるが、均衡エージェントでは、協調的な転職が避けるような混雑コストを発生させることがしばしばある。
コーディネーションの問題に対処するため,グローバルな観測可能な信号を用いて協調性を高める人工エージェントを導入する。
進化力学と強化学習実験を用いて、人工エージェントは学習ダイナミクスを調整結果にシフトさせることができることを示す。
しばしば無視される問題は部分的な採用であり、人工エージェントの技術が早期採用の段階にあるときに何が起こるのか?
我々は、採用者と非管理者の混在する集団を分析し、一方的な参入が可能であることを示し、採用者は構造的に罰せられず、部分的な採用は総体的な結果を改善することができることを示した。
しかしながら、一部のパラメータでは、非アドプターは、導入者が引き起こす協力から不当に利益を得る可能性がある。
この非対称性は、有益なエントリを前もってはいないが、デプロイメントにおける考慮を保証し、マルチエージェント設定におけるAIテクノロジの採用に関する戦略的問題を強調している。
関連論文リスト
- Position: AI Agents Are Not (Yet) a Panacea for Social Simulation [62.891898598784415]
大規模言語モデル(LLM)の最近の進歩は、社会シミュレーションにLLM統合エージェントを使うことへの関心が高まっている。
このポジションペーパーは、LSMをベースとしたエージェントは社会シミュレーションのパナセアではないと主張している。
論文 参考訳(メタデータ) (2026-02-19T06:35:07Z) - Mapping Human Anti-collusion Mechanisms to Multi-agent AI [0.0]
我々は、制裁、寛大さと内部告発、監視と監査、市場デザイン、ガバナンスを含む、人間の反共機構の分類法を開発する。
それぞれのメカニズムに対して,実装アプローチを提案する。
論文 参考訳(メタデータ) (2026-01-01T14:30:37Z) - GenAI-based Multi-Agent Reinforcement Learning towards Distributed Agent Intelligence: A Generative-RL Agent Perspective [35.589506360952925]
我々は、AIに基づく強化学習を通じて、リアクティブからプロアクティブなマルチエージェントインテリジェンスへの変革的パラダイムシフトを論じる。
生成的RLエージェントは、即時観測に反応するのではなく、環境の進化をモデル化し、他のエージェントの振る舞いを予測し、協調されたアクションシーケンスを生成し、長期的ダイナミクスの戦略的推論を行うことができる。
論文 参考訳(メタデータ) (2025-07-13T05:02:43Z) - Resource Rational Contractualism Should Guide AI Alignment [69.07915246220985]
契約主義的アライメントは、多様な利害関係者が支持する合意の中で決定を下すことを提案する。
我々は、AIシステムが合理的な当事者が形成する合意を近似する枠組みであるリソース・リアリズムを提案する。
RRC対応エージェントは、効率的に機能するだけでなく、変化する人間の社会世界への適応と解釈を動的に行うことができる。
論文 参考訳(メタデータ) (2025-06-20T18:57:13Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - AI, Pluralism, and (Social) Compensation [1.5442389863546546]
ユーザ集団における多元的価値に対応する戦略は、AIシステムをパーソナライズすることである。
もしAIが個々の個人の特定の値に適応できるなら、多元主義の課題の多くを回避できる可能性がある。
しかし、人間-AIチームにとって成功の外部尺度がある場合、適応型AIシステムは人間のチームメイトを補うための戦略を開発することができる。
論文 参考訳(メタデータ) (2024-04-30T04:41:47Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - The art of compensation: how hybrid teams solve collective risk dilemmas [6.081979963786028]
適応剤と固定行動剤を併用したハイブリッド集団における協調の進化的ダイナミクスについて検討した。
後者の振る舞いを補うために,まず,行動に適応することを学ぶ方法を示す。
論文 参考訳(メタデータ) (2022-05-13T13:23:42Z) - Normative Disagreement as a Challenge for Cooperative AI [56.34005280792013]
典型的な協調誘導学習アルゴリズムは、問題の解決に協力することができないと論じる。
我々は,ノルム適応政策のクラスを開発し,これらが協調性を著しく向上させることを示す実験を行った。
論文 参考訳(メタデータ) (2021-11-27T11:37:42Z) - Inducing Equilibria via Incentives: Simultaneous Design-and-Play Finds
Global Optima [114.31577038081026]
本稿では,デザイナーとエージェントの問題を同時に1ループで解くための効率的な手法を提案する。
設計者は平衡問題を何度も解決しないが、エージェントに対するインセンティブの全体的な影響を予測できる。
このアルゴリズムは,幅広い種類のゲームに対して,サブ線形速度で大域的最適値に収束することを示す。
論文 参考訳(メタデータ) (2021-10-04T06:53:59Z) - The Tragedy of the AI Commons [0.0]
我々は進化ゲーム力学を用いて、人工知能の倫理的発展の文脈における社会的ジレンマをモデル化する。
このようなシナリオでは,効果によって協調が実現可能であることを示す。
彼らは、協力のコストが低く、失敗のリスクが高い小さなグループで共通の利益の調整を試みるべきであることを示唆している。
論文 参考訳(メタデータ) (2020-06-09T12:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。