論文の概要: Lessons from complexity theory for AI governance
- arxiv url: http://arxiv.org/abs/2502.00012v1
- Date: Tue, 07 Jan 2025 07:56:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-09 06:16:02.779912
- Title: Lessons from complexity theory for AI governance
- Title(参考訳): AIガバナンスにおける複雑性理論からの教訓
- Authors: Noam Kolt, Michal Shur-Ofry, Reuven Cohen,
- Abstract要約: 複雑性理論は、政策立案者にとって中心的な課題となるAIの特徴を照らすのに役立つ。
我々は、AI管理の取り組みが深刻な不確実性によってどのように特徴付けられるかを検討する。
我々は,AIガバナンスのタイミングと構造に関して,複雑性に適合する一連の原則を提案する。
- 参考スコア(独自算出の注目度): 1.6122472145662998
- License:
- Abstract: The study of complex adaptive systems, pioneered in physics, biology, and the social sciences, offers important lessons for AI governance. Contemporary AI systems and the environments in which they operate exhibit many of the properties characteristic of complex systems, including nonlinear growth patterns, emergent phenomena, and cascading effects that can lead to tail risks. Complexity theory can help illuminate the features of AI that pose central challenges for policymakers, such as feedback loops induced by training AI models on synthetic data and the interconnectedness between AI systems and critical infrastructure. Drawing on insights from other domains shaped by complex systems, including public health and climate change, we examine how efforts to govern AI are marked by deep uncertainty. To contend with this challenge, we propose a set of complexity-compatible principles concerning the timing and structure of AI governance, and the risk thresholds that should trigger regulatory intervention.
- Abstract(参考訳): 物理学、生物学、社会科学において先駆的な複雑な適応システムの研究は、AIガバナンスの重要な教訓を提供する。
現代のAIシステムとそれらが運用する環境は、非線形成長パターン、創発的現象、尾のリスクにつながるカスケード効果など、複雑なシステムの特性の多くを示す。
複雑性理論は、AIモデルを合成データ上でトレーニングすることによって引き起こされるフィードバックループや、AIシステムとクリティカルインフラストラクチャ間の相互接続性など、政策立案者に中心的な課題をもたらすAIの特徴を照らすのに役立つ。
公衆衛生や気候変動を含む複雑なシステムによって形成された他のドメインからの洞察に基づいて、AIの統治に向けた取り組みが、深い不確実性によってどのように特徴付けられるかを調べる。
この課題に対処するため、我々は、AIガバナンスのタイミングと構造に関する複雑さに適合した原則と、規制の介入を誘発する可能性のあるリスクしきい値を提案する。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Navigating the sociotechnical labyrinth: Dynamic certification for responsible embodied AI [19.959138971887395]
我々は、社会技術的要求が人工知性(AI)システムのガバナンスを形成することを論じる。
提案する学際的アプローチは,AIシステムの安全性,倫理的,実践的な展開を保証するために設計されている。
論文 参考訳(メタデータ) (2024-08-16T08:35:26Z) - Beyond Accidents and Misuse: Decoding the Structural Risk Dynamics of Artificial Intelligence [0.0]
本稿では,社会・経済・政治システム間の高度AIシステムの迅速な統合に伴う構造的リスクの概念について考察する。
技術的進歩と社会的ダイナミクスの相互作用を分析することにより、構造リスクの3つの主要なカテゴリを分離する。
これらのリスクを駆動する因果連鎖を理解するための包括的枠組みを提示し、構造的力の相互依存と、誤用やシステム障害のより近親的なリスクを強調した。
論文 参考訳(メタデータ) (2024-06-21T05:44:50Z) - Attributing Responsibility in AI-Induced Incidents: A Computational Reflective Equilibrium Framework for Accountability [13.343937277604892]
AI(Artificial Intelligence)の広範な統合は、AI対応システムに関わるインシデントが発生した場合の責任と説明責任において、複雑な課題を導入している。
この研究は、すべての利害関係者に対して、一貫性があり倫理的に許容される責任帰属の枠組みを提案する。
論文 参考訳(メタデータ) (2024-04-25T18:11:03Z) - Quantifying AI Vulnerabilities: A Synthesis of Complexity, Dynamical Systems, and Game Theory [0.0]
システム複雑度指数(SCI)、Lyapunov Exponent for AI stability(LEAIS)、Nash Equilibrium Robustness(NER)の3つの指標を導入する新しいアプローチを提案する。
SCIはAIシステムの固有の複雑さを定量化し、LEAISはその安定性と摂動に対する感受性を捉え、NERは敵の操作に対する戦略的堅牢性を評価する。
論文 参考訳(メタデータ) (2024-04-07T07:05:59Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI Hazard Management: A framework for the systematic management of root
causes for AI risks [0.0]
本稿ではAI Hazard Management(AIHM)フレームワークを紹介する。
AIのハザードを体系的に識別し、評価し、治療するための構造化されたプロセスを提供する。
総合的な最先端分析からAIハザードリストを構築する。
論文 参考訳(メタデータ) (2023-10-25T15:55:50Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。