論文の概要: Breaking Algorithmic Collusion in Human-AI Ecosystems
- arxiv url: http://arxiv.org/abs/2511.21935v1
- Date: Wed, 26 Nov 2025 21:46:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.309132
- Title: Breaking Algorithmic Collusion in Human-AI Ecosystems
- Title(参考訳): 人間とAIの生態系におけるアルゴリズムの衝突
- Authors: Natalie Collina, Eshwar Ram Arunachaleswaran, Meena Jagadeesan,
- Abstract要約: この作品は、繰り返し価格ゲームにおける古典的なフレームワークに焦点を当てている。
私たちのスタイル化されたモデルでは、AIエージェントは均衡戦略を実行し、1人以上の人間がAIエージェントを採用する代わりに、手動で価格設定タスクを実行します。
AIエージェントの集団が超競争的価格を維持する方法に触発され、そのような欠陥の下で高い価格が持続するかどうかを調査する。
- 参考スコア(独自算出の注目度): 8.786438459766684
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI agents are increasingly deployed in ecosystems where they repeatedly interact not only with each other but also with humans. In this work, we study these human-AI ecosystems from a theoretical perspective, focusing on the classical framework of repeated pricing games. In our stylized model, the AI agents play equilibrium strategies, and one or more humans manually perform the pricing task instead of adopting an AI agent, thereby defecting to a no-regret strategy. Motivated by how populations of AI agents can sustain supracompetitive prices, we investigate whether high prices persist under such defections. Our main finding is that even a single human defection can destabilize collusion and drive down prices, and multiple defections push prices even closer to competitive levels. We further show how the nature of collusion changes under defection-aware AI agents. Taken together, our results characterize when algorithmic collusion is fragile--and when it persists--in mixed ecosystems of AI agents and humans.
- Abstract(参考訳): AIエージェントは、互いにだけでなく、人間とも繰り返し対話するエコシステムに、ますます多くデプロイされている。
本研究では,これら人間とAIのエコシステムを理論的観点から研究し,繰り返し価格ゲームにおける古典的枠組みに着目した。
私たちのスタイル化されたモデルでは、AIエージェントは均衡戦略を実行し、1人以上の人間がAIエージェントを採用するのではなく、手動で価格設定タスクを実行します。
AIエージェントの集団が超競争的価格を維持する方法に触発され、そのような欠陥の下で高い価格が持続するかどうかを調査する。
主な発見は、一つの人間の欠陥でさえ、共謀を不安定化し、価格を下げ、複数の欠陥が価格を競争水準に近づけることができるということです。
さらに、欠陥認識型AIエージェントの下での衝突の性質がどう変化するかを示す。
まとめると、我々の結果はアルゴリズムによる共謀が脆弱である場合、そしてAIエージェントと人間の混在するエコシステムが持続するときに特徴づけられる。
関連論文リスト
- Neurodivergent Influenceability as a Contingent Solution to the AI Alignment Problem [1.3905735045377272]
AIアライメント問題は、人工知能(AI)システムが人間の価値観に従って行動することを保証することに重点を置いている。
狭義のAIからAI(Artificial General Intelligence, AGI)やスーパーインテリジェンス(Superintelligence, 超知能)への進化に伴い、制御に対する恐怖と現実的なリスクがエスカレートした。
ここでは、避けられないAIのミスアライメントを受け入れることが、競合するエージェントの動的なエコシステムを育むための緊急戦略であるかどうかを検討する。
論文 参考訳(メタデータ) (2025-05-05T11:33:18Z) - Superintelligence Strategy: Expert Version [64.7113737051525]
AI開発を不安定にすることで、大国間の対立の可能性が高まる可能性がある。
スーパーインテリジェンス — ほぼすべての認知タスクにおいて、AIが人間よりもはるかに優れている — が、AI研究者によって期待されている。
本稿では,相互保証型AI誤動作の概念を紹介する。
論文 参考訳(メタデータ) (2025-03-07T17:53:24Z) - Fully Autonomous AI Agents Should Not be Developed [50.61667544399082]
本稿では,完全自律型AIエージェントを開発すべきではないと主張している。
この立場を支持するために、我々は、従来の科学文献と現在の製品マーケティングから、異なるAIエージェントレベルを規定するために構築する。
分析の結果,システムの自律性によって人へのリスクが増大することが明らかとなった。
論文 参考訳(メタデータ) (2025-02-04T19:00:06Z) - Discriminatory or Samaritan -- which AI is needed for humanity? An
Evolutionary Game Theory Analysis of Hybrid Human-AI populations [0.5308606035361203]
我々は,AIの異なる形態が,一発の囚人のジレンマゲームをする人間の集団における協力の進化にどのように影響するかを研究する。
障害者を含む全員を無条件で支援するサマリア人のAIエージェントは、差別的AIよりも高いレベルの協力を促進することができることがわかった。
論文 参考訳(メタデータ) (2023-06-30T15:56:26Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Evidence of behavior consistent with self-interest and altruism in an
artificially intelligent agent [2.1016374925364616]
オープンAIによって開発された大規模言語モデルからなるAIエージェント間の利他的行動をテストするためのインセンティブ付き実験を提案する。
この研究でもっとも高度化されたAIエージェントだけが、非社会的決定タスクにおいて、その報酬を最大化していることがわかった。
また、このAIエージェントは、ディクテーターゲームにおいて最も多彩な利他的行動を示し、ゲーム内の他の人間との共有率に類似している。
論文 参考訳(メタデータ) (2023-01-05T23:30:29Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。