論文の概要: Computing Power and the Governance of Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2402.08797v1
- Date: Tue, 13 Feb 2024 21:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 17:46:38.818562
- Title: Computing Power and the Governance of Artificial Intelligence
- Title(参考訳): コンピューティングパワーと人工知能のガバナンス
- Authors: Girish Sastry, Lennart Heim, Haydn Belfield, Markus Anderljung, Miles
Brundage, Julian Hazell, Cullen O'Keefe, Gillian K. Hadfield, Richard Ngo,
Konstantin Pilz, George Gor, Emma Bluemke, Sarah Shoker, Janet Egan, Robert
F. Trager, Shahar Avin, Adrian Weller, Yoshua Bengio, Diane Coyle
- Abstract要約: 政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
- 参考スコア(独自算出の注目度): 51.967584623262674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computing power, or "compute," is crucial for the development and deployment
of artificial intelligence (AI) capabilities. As a result, governments and
companies have started to leverage compute as a means to govern AI. For
example, governments are investing in domestic compute capacity, controlling
the flow of compute to competing countries, and subsidizing compute access to
certain sectors. However, these efforts only scratch the surface of how compute
can be used to govern AI development and deployment. Relative to other key
inputs to AI (data and algorithms), AI-relevant compute is a particularly
effective point of intervention: it is detectable, excludable, and
quantifiable, and is produced via an extremely concentrated supply chain. These
characteristics, alongside the singular importance of compute for cutting-edge
AI models, suggest that governing compute can contribute to achieving common
policy objectives, such as ensuring the safety and beneficial use of AI. More
precisely, policymakers could use compute to facilitate regulatory visibility
of AI, allocate resources to promote beneficial outcomes, and enforce
restrictions against irresponsible or malicious AI development and usage.
However, while compute-based policies and technologies have the potential to
assist in these areas, there is significant variation in their readiness for
implementation. Some ideas are currently being piloted, while others are
hindered by the need for fundamental research. Furthermore, naive or poorly
scoped approaches to compute governance carry significant risks in areas like
privacy, economic impacts, and centralization of power. We end by suggesting
guardrails to minimize these risks from compute governance.
- Abstract(参考訳): コンピュータパワー(Compute)は、人工知能(AI)の能力の開発と展開に不可欠である。
その結果、政府や企業はAIを管理する手段として計算を活用し始めている。
例えば、政府は国内計算能力に投資し、競合国への計算の流れを制御し、特定の分野への計算アクセスを補助している。
しかし、これらの取り組みは、AI開発とデプロイメントを管理するために計算をどのように使用できるかという表面を掻くだけである。
AI(データとアルゴリズム)に対する他の重要な入力とは対照的に、AI関連計算は特に効果的な介入点である。
これらの特徴は、最先端のAIモデルにおける計算の特異な重要性と並行して、計算の管理は、AIの安全性と有益な使用を保証するなど、共通の政策目標を達成するのに寄与する可能性があることを示唆している。
より正確には、政策立案者は計算を使ってAIの規制の可視性を促進し、有益な結果を促進するためにリソースを割り当て、無責任または悪意のあるAI開発と使用に対する制限を強制することができる。
しかし、計算ベースのポリシーや技術はこれらの領域で支援する可能性を秘めているが、その実装準備には大きな変化がある。
いくつかのアイデアは、現在パイロット化されているが、基本的な研究の必要性によって妨げられているものもある。
さらに、プライバシーや経済的影響、権力の集中といった分野において、ナイーブあるいは低範囲のガバナンスアプローチは重大なリスクを負う。
最終的には、コンピューティングガバナンスからのリスクを最小限に抑えるためのガードレールを提案します。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - Generative AI Needs Adaptive Governance [0.0]
ジェネレーティブAIは、ガバナンス、信頼、ヒューマンエージェンシーの概念に挑戦する。
本稿では,ジェネレーティブAIが適応的ガバナンスを求めていることを論じる。
我々は、アクター、ロール、および共有およびアクター固有のポリシー活動の概要を概説する。
論文 参考訳(メタデータ) (2024-06-06T23:47:14Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Mathematical Algorithm Design for Deep Learning under Societal and
Judicial Constraints: The Algorithmic Transparency Requirement [65.26723285209853]
計算モデルにおける透過的な実装が実現可能かどうかを分析するための枠組みを導出する。
以上の結果から,Blum-Shub-Smale Machinesは,逆問題に対する信頼性の高い解法を確立できる可能性が示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:32:38Z) - Increased Compute Efficiency and the Diffusion of AI Capabilities [1.1838866556981258]
高度なAIモデルをトレーニングするには、計算リソースや計算に多大な投資が必要になる。
ハードウェアのイノベーションが計算とアルゴリズムの進歩の価格を下げるにつれ、AIモデルを所定のパフォーマンスにトレーニングするコストは、時間の経過とともに低下する。
アクセス効果が与えられたパフォーマンスにモデルを訓練できるアクターの数を増加させる一方、パフォーマンス効果は各アクターが利用できるパフォーマンスを同時に増加させる。
論文 参考訳(メタデータ) (2023-11-26T18:36:28Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - AI Assurance using Causal Inference: Application to Public Policy [0.0]
ほとんどのAIアプローチは、"ブラックボックス"としてのみ表現することができ、透明性の欠如に悩まされる。
効果的で堅牢なAIシステムを開発するだけでなく、内部プロセスが説明可能で公平であることを確認することも重要です。
論文 参考訳(メタデータ) (2021-12-01T16:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。