論文の概要: AI, Digital Platforms, and the New Systemic Risk
- arxiv url: http://arxiv.org/abs/2509.17878v1
- Date: Mon, 22 Sep 2025 15:14:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 14:22:02.733206
- Title: AI, Digital Platforms, and the New Systemic Risk
- Title(参考訳): AI、デジタルプラットフォーム、そして新しいシステムリスク
- Authors: Philipp Hacker, Atoosa Kasirzadeh, Lilian Edwards,
- Abstract要約: 我々は、AI、プラットフォーム、ハイブリッドシステムガバナンスにおけるシステムリスクを理解するための厳格なフレームワークを開発する。
我々は、EUのAI法やデジタルサービス法を含む最近の法律は、体系的なリスクを呼び起こすが、狭小または曖昧な特徴に依存していると主張している。
我々のフレームワークは、複数のAIエージェントの相互作用に起因するシステム障害の可能性を含む、新しいリスクパスを強調している。
- 参考スコア(独自算出の注目度): 2.0090452213078445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) becomes increasingly embedded in digital, social, and institutional infrastructures, and AI and platforms are merged into hybrid structures, systemic risk has emerged as a critical but undertheorized challenge. In this paper, we develop a rigorous framework for understanding systemic risk in AI, platform, and hybrid system governance, drawing on insights from finance, complex systems theory, climate change, and cybersecurity - domains where systemic risk has already shaped regulatory responses. We argue that recent legislation, including the EU's AI Act and Digital Services Act (DSA), invokes systemic risk but relies on narrow or ambiguous characterizations of this notion, sometimes reducing this risk to specific capabilities present in frontier AI models, or to harms occurring in economic market settings. The DSA, we show, actually does a better job at identifying systemic risk than the more recent AI Act. Our framework highlights novel risk pathways, including the possibility of systemic failures arising from the interaction of multiple AI agents. We identify four levels of AI-related systemic risk and emphasize that discrimination at scale and systematic hallucinations, despite their capacity to destabilize institutions and fundamental rights, may not fall under current legal definitions, given the AI Act's focus on frontier model capabilities. We then test the DSA, the AI Act, and our own framework on five key examples, and propose reforms that broaden systemic risk assessments, strengthen coordination between regulatory regimes, and explicitly incorporate collective harms.
- Abstract(参考訳): 人工知能(AI)がデジタル、社会的、制度的なインフラにますます浸透し、AIとプラットフォームがハイブリッド構造に統合されるにつれ、システム的リスクは批判的だが未解決の課題として現れてきた。
本稿では,AI,プラットフォーム,ハイブリッドシステムガバナンスの体系的リスクを理解するための厳密な枠組みを開発し,金融,複雑なシステム理論,気候変動,サイバーセキュリティといった,システム的リスクがすでに規制上の応答を形成している領域からの洞察に基づく。
私たちは、EUのAI法やデジタルサービス法(DSA)を含む最近の法律は、体系的なリスクを呼び起こすが、この概念の狭小または曖昧な特徴に依存しており、時にこのリスクを、フロンティアAIモデルに存在する特定の機能に還元したり、経済的な市場設定で発生する害を負ったりしている、と論じています。
私たちが示したDSAは、より最近のAI法よりもシステム的リスクを特定するのに優れた仕事をしている。
我々のフレームワークは、複数のAIエージェントの相互作用に起因するシステム障害の可能性を含む、新しいリスクパスを強調している。
我々は、AI関連のシステムリスクの4つのレベルを特定し、規模での差別と体系的な幻覚は、制度の不安定化と基本的権利にもかかわらず、AI法がフロンティアモデル能力に焦点を当てていることを考えると、現在の法的定義に該当しない可能性があることを強調した。
次に、DSA、AI法、および我々のフレームワークを5つの主要な事例でテストし、体系的なリスク評価を広げ、規制体制間の調整を強化し、集団的危害を明示的に取り入れる改革を提案します。
関連論文リスト
- Embodied AI: Emerging Risks and Opportunities for Policy Action [46.48780452120922]
EAI(Embodied AI)システムは、物理的な世界で存在し、そこから学び、推論し、行動することができる。
EAIシステムには、悪意のある使用による身体的被害、大量監視、経済的・社会的破壊など、重大なリスクが伴う。
論文 参考訳(メタデータ) (2025-08-28T17:59:07Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - AI Risk Categorization Decoded (AIR 2024): From Government Regulations to Corporate Policies [88.32153122712478]
我々は4階層の分類に分類された314のユニークなリスクカテゴリを特定した。
最高レベルでは、この分類はシステム・アンド・オペレーショナル・リスク、コンテンツ・セーフティ・リスク、社会的なリスク、法と権利のリスクを含む。
我々は、セクター間の情報共有と、生成型AIモデルとシステムのリスク軽減におけるベストプラクティスの推進を通じて、AIの安全性を向上することを目指している。
論文 参考訳(メタデータ) (2024-06-25T18:13:05Z) - Beyond Accidents and Misuse: Decoding the Structural Risk Dynamics of Artificial Intelligence [0.0]
本稿では,複雑なシステム研究を基盤としたフレームワークを導入することにより,構造リスクの概念を推し進める。
構造リスクを、先行する構造的原因、先行するAIシステム原因、有害なフィードバックループの3つのカテゴリに分類する。
本稿では,これらのダイナミクスを予測し,支配するために,シナリオマッピング,シミュレーション,探索的展望を取り入れた方法論的アジェンダを提案する。
論文 参考訳(メタデータ) (2024-06-21T05:44:50Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。