論文の概要: Should Artificial Intelligence Governance be Centralised? Design Lessons
from History
- arxiv url: http://arxiv.org/abs/2001.03573v1
- Date: Fri, 10 Jan 2020 17:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 23:31:29.223659
- Title: Should Artificial Intelligence Governance be Centralised? Design Lessons
from History
- Title(参考訳): 人工知能ガバナンスは中央集権化するべきか?
歴史から学ぶデザインの教訓
- Authors: Peter Cihon, Matthijs M. Maas, Luke Kemp
- Abstract要約: 我々は、AIガバナンスの中央集権化における利点とデメリットを特定するために、他の国際体制の歴史を描きます。
効率性や政治的権力などいくつかの考慮事項は中央集権化を支持する。
緩やかで不安定な機関を作ることのリスクは、厳格なルールを作成しながら参加を確保することの難しさと同様に、それに反対する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can effective international governance for artificial intelligence remain
fragmented, or is there a need for a centralised international organisation for
AI? We draw on the history of other international regimes to identify
advantages and disadvantages in centralising AI governance. Some
considerations, such as efficiency and political power, speak in favour of
centralisation. Conversely, the risk of creating a slow and brittle institution
speaks against it, as does the difficulty in securing participation while
creating stringent rules. Other considerations depend on the specific design of
a centralised institution. A well-designed body may be able to deter forum
shopping and ensure policy coordination. However, forum shopping can be
beneficial and a fragmented landscape of institutions can be self-organising.
Centralisation entails trade-offs and the details matter. We conclude with two
core recommendations. First, the outcome will depend on the exact design of a
central institution. A well-designed centralised regime covering a set of
coherent issues could be beneficial. But locking-in an inadequate structure may
pose a fate worse than fragmentation. Second, for now fragmentation will likely
persist. This should be closely monitored to see if it is self-organising or
simply inadequate.
- Abstract(参考訳): 人工知能のための効果的な国際統治は、依然として断片化されているのか?
我々は、AIガバナンスの中央集権化における利点とデメリットを特定するために、他の国際体制の歴史を描きます。
効率性や政治的権力などいくつかの考慮事項は中央集権化を支持する。
逆に、緩やかで脆い組織を作るリスクは、厳格なルールを作成しながら参加を確保することの難しさと同様に、それに反対している。
その他の考慮事項は、中央組織の設計に依存する。
十分に設計された団体は、フォーラムの買い物を抑止し、ポリシーの調整を確保することができる。
しかし、フォーラムショッピングは有益であり、施設の断片化された景観を自己組織化することができる。
中央集権化にはトレードオフと詳細が伴う。
我々は2つの主要な推奨事項で締めくくる。
第一に、結果は中央機関の正確な設計に依存します。
コヒーレントな問題の集合をカバーするよく設計された中央集権的な体制は有益である。
しかし、不適切な構造のロックインは、断片化よりもひどい運命をもたらす可能性がある。
第二に、今のところ断片化は続くだろう。
これは、自己組織化されているか、あるいは単に不十分であるかどうかを注意深く監視する必要がある。
関連論文リスト
- Centralization vs Decentralization in Hiring and Admissions [1.5976170220566237]
我々は、分散化が公正性に対する破壊的な結果をもたらす可能性を示し、候補者間で雇用される可能性において大きな格差をもたらすことを示している。
我々の結果は、中央集権化と分散化という問題の下で発生するトレードオフを実証し、この問題に対する回答が、これらのシステム内の人々にどのように大きな害を与えるかを指摘する。
論文 参考訳(メタデータ) (2025-01-23T19:22:29Z) - Artificial Intelligence Policy Framework for Institutions [0.0]
本稿では,機関内におけるAIポリシ開発における重要な考慮事項について述べる。
我々は、AI要素の解釈可能性と説明可能性の重要性、バイアスを緩和し、プライバシーを確保する必要性について検討する。
論文 参考訳(メタデータ) (2024-12-03T20:56:47Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Artificial intelligence, rationalization, and the limits of control in the public sector: the case of tax policy optimization [0.0]
AIシステムに対する批判の大部分が、Weberianの合理化の中心にあるよく知られた緊張から生まれたものであることを示す。
分析の結果,社会的・経済的平等を促進する機械的税制の構築が可能であることが示唆された。
また、AIによるポリシーの最適化は、他の競合する政治的価値観を排除することによってもたらされる、とも強調している。
論文 参考訳(メタデータ) (2024-07-07T11:54:14Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。