論文の概要: AI Behind Closed Doors: a Primer on The Governance of Internal Deployment
- arxiv url: http://arxiv.org/abs/2504.12170v1
- Date: Wed, 16 Apr 2025 15:21:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-24 17:05:38.749585
- Title: AI Behind Closed Doors: a Primer on The Governance of Internal Deployment
- Title(参考訳): ドアを閉じたAI - 内部デプロイメントのガバナンスに関するプライマー
- Authors: Charlotte Stix, Matteo Pistillo, Girish Sastry, Marius Hobbhahn, Alejandro Ortega, Mikita Balesni, Annika Hallensleben, Nix Goldowsky-Dill, Lee Sharkey,
- Abstract要約: 内部デプロイメントは、フロンティアAIシステムによるメリットとリスクの主な源泉である。
このレポートは、内部デプロイメントのガバナンスに関する会話を予備して、この欠如に対処することを目的としている。
そこでは,AI研究開発パイプラインに対するAIシステムの内部適用による制御の喪失に関連するリスクについて論じる。
- 参考スコア(独自算出の注目度): 33.99253912746621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The most advanced future AI systems will first be deployed inside the frontier AI companies developing them. According to these companies and independent experts, AI systems may reach or even surpass human intelligence and capabilities by 2030. Internal deployment is, therefore, a key source of benefits and risks from frontier AI systems. Despite this, the governance of the internal deployment of highly advanced frontier AI systems appears absent. This report aims to address this absence by priming a conversation around the governance of internal deployment. It presents a conceptualization of internal deployment, learnings from other sectors, reviews of existing legal frameworks and their applicability, and illustrative examples of the type of scenarios we are most concerned about. Specifically, it discusses the risks correlated to the loss of control via the internal application of a misaligned AI system to the AI research and development pipeline, and unconstrained and undetected power concentration behind closed doors. The report culminates with a small number of targeted recommendations that provide a first blueprint for the governance of internal deployment.
- Abstract(参考訳): 先進的なAIシステムは、まずそれを開発しているフロンティアAI企業の中に展開される。
これらの企業や独立した専門家によると、AIシステムは2030年までに人間の知性と能力に到達または超える可能性がある。
したがって、内部デプロイメントは、フロンティアAIシステムによるメリットとリスクの重要な源である。
それにもかかわらず、高度に高度なフロンティアAIシステムの内部展開のガバナンスは欠如しているようだ。
このレポートは、内部デプロイメントのガバナンスに関する会話を予備して、この欠如に対処することを目的としている。
それは、内部のデプロイメントの概念化、他のセクターからの学習、既存の法律フレームワークのレビューとその適用性、そして我々が最も関心を持っているシナリオの例を示します。
具体的には、AIシステムの内部的応用による制御の喪失と、AI研究・開発パイプライン、およびドアの内側の非拘束かつ未検出の電力集中との関連性について論じる。
このレポートは、内部デプロイメントのガバナンスのための最初の青写真を提供する、少数のターゲットのレコメンデーションで締めくくっている。
関連論文リスト
- A Framework for the Private Governance of Frontier Artificial Intelligence [0.0]
本稿では,ハイブリッド・パブリック・プライベート・システムによるフロンティアAIシステムのガバナンスについて提案する。
政府によって認可され、監督される民間機関は、オプトインベースでフロンティアAIシステムの開発者に認証を提供する。
オプトインと引き換えに、フロンティアAI企業は、顧客のモデル誤用に対するトルト責任から保護を受ける。
論文 参考訳(メタデータ) (2025-04-15T02:56:26Z) - AI threats to national security can be countered through an incident regime [55.2480439325792]
我々は、AIシステムからの潜在的な国家安全保障脅威に対抗することを目的とした、法的に義務付けられたポストデプロイAIインシデントシステムを提案する。
提案したAIインシデント体制は,3段階に分けられる。第1フェーズは,‘AIインシデント’とみなすような,新たな運用方法を中心に展開される。
第2フェーズと第3フェーズでは、AIプロバイダが政府機関にインシデントを通知し、政府機関がAIプロバイダのセキュリティおよび安全手順の修正に関与するべきだ、と説明されている。
論文 参考訳(メタデータ) (2025-03-25T17:51:50Z) - In-House Evaluation Is Not Enough: Towards Robust Third-Party Flaw Disclosure for General-Purpose AI [93.33036653316591]
我々はシステムの安全性を高めるために3つの介入を要求します。
まず、標準化されたAI欠陥レポートと研究者へのエンゲージメントのルールを用いることを提案する。
第2に,GPAIシステムプロバイダが広視野欠陥開示プログラムを採用することを提案する。
第3に,欠陥報告の分布を調整するための改良されたインフラの開発を提唱する。
論文 参考訳(メタデータ) (2025-03-21T05:09:46Z) - Compliance of AI Systems [0.0]
本稿では、EUのAI法に焦点をあてて、関連する法律に対するAIシステムのコンプライアンスを体系的に検討する。
この分析は、エッジデバイスに関連する多くの課題を強調した。
データセットのコンプライアンスの重要性は、AIシステムの信頼性、透明性、説明可能性を保証するための基盤として強調されている。
論文 参考訳(メタデータ) (2025-03-07T16:53:36Z) - Enabling External Scrutiny of AI Systems with Privacy-Enhancing Technologies [0.0]
この記事では、非営利のOpenMinedが開発した技術インフラが、センシティブな情報を妥協することなく、AIシステムの外部調査を可能にする方法について説明する。
実際には、外部の研究者は、セキュリティ、プライバシ、知的財産に関するAI企業の正当な懸念のために、AIシステムへのアクセスに苦労している。
OpenMinedが開発したエンドツーエンドの技術インフラは、いくつかのPETをさまざまなセットアップに統合し、AIシステムのプライバシー保護監査を可能にする。
論文 参考訳(メタデータ) (2025-02-05T15:31:11Z) - Decentralized Governance of Autonomous AI Agents [0.0]
ETHOSは、ブロックチェーン、スマートコントラクト、分散自律組織(DAO)など、Web3テクノロジを活用する分散ガバナンス(DeGov)モデルである。
AIエージェントのグローバルレジストリを確立し、動的リスク分類、比例監視、自動コンプライアンス監視を可能にする。
合理性、倫理的根拠、ゴールアライメントの哲学的原則を統合することで、ETHOSは信頼、透明性、参加的ガバナンスを促進するための堅牢な研究アジェンダを作ることを目指している。
論文 参考訳(メタデータ) (2024-12-22T18:01:49Z) - Towards Responsible Governing AI Proliferation [0.0]
論文では、小規模で分散化されたオープンソースのAIモデルの台頭を期待するProliferation'パラダイムを紹介している。
これらの発展は、可能性があり、利益と新たなリスクの両方をもたらす可能性が高いことを示唆している。
論文 参考訳(メタデータ) (2024-12-18T13:10:35Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Frontier AI developers need an internal audit function [0.2913760942403036]
記事は、フロンティア人工知能(AI)開発者は内部監査機能を必要としていると主張している。
AI研究開発の急速な進歩を踏まえ、フロンティアAI開発者はリスクガバナンスを強化する必要がある。
論文 参考訳(メタデータ) (2023-05-26T15:48:05Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。