論文の概要: Should Artificial Intelligence Governance be Centralised? Design Lessons
from History
- arxiv url: http://arxiv.org/abs/2001.03573v1
- Date: Fri, 10 Jan 2020 17:34:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 23:31:29.223659
- Title: Should Artificial Intelligence Governance be Centralised? Design Lessons
from History
- Title(参考訳): 人工知能ガバナンスは中央集権化するべきか?
歴史から学ぶデザインの教訓
- Authors: Peter Cihon, Matthijs M. Maas, Luke Kemp
- Abstract要約: 我々は、AIガバナンスの中央集権化における利点とデメリットを特定するために、他の国際体制の歴史を描きます。
効率性や政治的権力などいくつかの考慮事項は中央集権化を支持する。
緩やかで不安定な機関を作ることのリスクは、厳格なルールを作成しながら参加を確保することの難しさと同様に、それに反対する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Can effective international governance for artificial intelligence remain
fragmented, or is there a need for a centralised international organisation for
AI? We draw on the history of other international regimes to identify
advantages and disadvantages in centralising AI governance. Some
considerations, such as efficiency and political power, speak in favour of
centralisation. Conversely, the risk of creating a slow and brittle institution
speaks against it, as does the difficulty in securing participation while
creating stringent rules. Other considerations depend on the specific design of
a centralised institution. A well-designed body may be able to deter forum
shopping and ensure policy coordination. However, forum shopping can be
beneficial and a fragmented landscape of institutions can be self-organising.
Centralisation entails trade-offs and the details matter. We conclude with two
core recommendations. First, the outcome will depend on the exact design of a
central institution. A well-designed centralised regime covering a set of
coherent issues could be beneficial. But locking-in an inadequate structure may
pose a fate worse than fragmentation. Second, for now fragmentation will likely
persist. This should be closely monitored to see if it is self-organising or
simply inadequate.
- Abstract(参考訳): 人工知能のための効果的な国際統治は、依然として断片化されているのか?
我々は、AIガバナンスの中央集権化における利点とデメリットを特定するために、他の国際体制の歴史を描きます。
効率性や政治的権力などいくつかの考慮事項は中央集権化を支持する。
逆に、緩やかで脆い組織を作るリスクは、厳格なルールを作成しながら参加を確保することの難しさと同様に、それに反対している。
その他の考慮事項は、中央組織の設計に依存する。
十分に設計された団体は、フォーラムの買い物を抑止し、ポリシーの調整を確保することができる。
しかし、フォーラムショッピングは有益であり、施設の断片化された景観を自己組織化することができる。
中央集権化にはトレードオフと詳細が伴う。
我々は2つの主要な推奨事項で締めくくる。
第一に、結果は中央機関の正確な設計に依存します。
コヒーレントな問題の集合をカバーするよく設計された中央集権的な体制は有益である。
しかし、不適切な構造のロックインは、断片化よりもひどい運命をもたらす可能性がある。
第二に、今のところ断片化は続くだろう。
これは、自己組織化されているか、あるいは単に不十分であるかどうかを注意深く監視する必要がある。
関連論文リスト
- Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Federated Learning Priorities Under the European Union Artificial
Intelligence Act [68.44894319552114]
我々は、AI法がフェデレートラーニングに与える影響について、第一種学際分析(法とML)を行う。
データガバナンスの問題とプライバシに関する懸念について検討する。
最も注目すべきは、データのバイアスを防御し、プライベートでセキュアな計算を強化する機会である。
論文 参考訳(メタデータ) (2024-02-05T19:52:19Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Can apparent bystanders distinctively shape an outcome? Global south
countries and global catastrophic risk-focused governance of artificial
intelligence [0.0]
私たちは、インドやシンガポールのようなグローバルな南欧諸国が、AIの破滅的なリスクに焦点を絞った世界的ガバナンスにおいて、かなり重要かもしれないと論じています。
我々はまた、グローバルな南欧諸国が、世界的な破滅的なリスクに焦点を当てたAIガバナンスを設計、強化、運用する上で、肯定的な役割を果たすいくつかの方法を提案する。
論文 参考訳(メタデータ) (2023-12-07T18:54:16Z) - Trustworthy AI: Deciding What to Decide [41.10597843436572]
我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
論文 参考訳(メタデータ) (2023-11-21T13:43:58Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Contrasting Centralized and Decentralized Critics in Multi-Agent
Reinforcement Learning [19.66161324837036]
エージェントが集中的な情報を使ってオフラインでトレーニングされる分散実行のためのトレーニングは、オンラインで分散的に実行されるが、マルチエージェント強化学習コミュニティで人気を集めている。
特に、中央集権的な批評家と非集権的なアクターによるアクター批判的手法は、この考え方の一般的な例である。
我々は、中央集権的・分権的な批評家のアプローチを分析し、批評家の選択が与える影響についてより深く理解する。
論文 参考訳(メタデータ) (2021-02-08T18:08:11Z) - F2A2: Flexible Fully-decentralized Approximate Actor-critic for
Cooperative Multi-agent Reinforcement Learning [110.35516334788687]
分散マルチエージェント強化学習アルゴリズムは複雑なアプリケーションでは実践的でないことがある。
本稿では,大規模で汎用的なマルチエージェント設定を扱える,柔軟な完全分散型アクター批判型MARLフレームワークを提案する。
当社のフレームワークは,大規模環境におけるスケーラビリティと安定性を実現し,情報伝達を低減できる。
論文 参考訳(メタデータ) (2020-04-17T14:56:29Z) - Byzantine-resilient Decentralized Stochastic Gradient Descent [85.15773446094576]
分散学習システムのビザンチンレジリエンスに関する詳細な研究について述べる。
ビザンチンフォールトトレランスを用いた分散学習を支援する新しいアルゴリズムUBARを提案する。
論文 参考訳(メタデータ) (2020-02-20T05:11:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。