論文の概要: AI Behind Closed Doors: a Primer on The Governance of Internal Deployment
- arxiv url: http://arxiv.org/abs/2504.12170v1
- Date: Wed, 16 Apr 2025 15:21:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:40:26.462309
- Title: AI Behind Closed Doors: a Primer on The Governance of Internal Deployment
- Title(参考訳): ドアを閉じたAI - 内部デプロイメントのガバナンスに関するプライマー
- Authors: Charlotte Stix, Matteo Pistillo, Girish Sastry, Marius Hobbhahn, Alejandro Ortega, Mikita Balesni, Annika Hallensleben, Nix Goldowsky-Dill, Lee Sharkey,
- Abstract要約: 内部デプロイメントは、フロンティアAIシステムによるメリットとリスクの主な源泉である。
このレポートは、内部デプロイメントのガバナンスに関する会話を予備して、この欠如に対処することを目的としている。
そこでは,AI研究開発パイプラインに対するAIシステムの内部適用による制御の喪失に関連するリスクについて論じる。
- 参考スコア(独自算出の注目度): 33.99253912746621
- License:
- Abstract: The most advanced future AI systems will first be deployed inside the frontier AI companies developing them. According to these companies and independent experts, AI systems may reach or even surpass human intelligence and capabilities by 2030. Internal deployment is, therefore, a key source of benefits and risks from frontier AI systems. Despite this, the governance of the internal deployment of highly advanced frontier AI systems appears absent. This report aims to address this absence by priming a conversation around the governance of internal deployment. It presents a conceptualization of internal deployment, learnings from other sectors, reviews of existing legal frameworks and their applicability, and illustrative examples of the type of scenarios we are most concerned about. Specifically, it discusses the risks correlated to the loss of control via the internal application of a misaligned AI system to the AI research and development pipeline, and unconstrained and undetected power concentration behind closed doors. The report culminates with a small number of targeted recommendations that provide a first blueprint for the governance of internal deployment.
- Abstract(参考訳): 先進的なAIシステムは、まずそれを開発しているフロンティアAI企業の中に展開される。
これらの企業や独立した専門家によると、AIシステムは2030年までに人間の知性と能力に到達または超える可能性がある。
したがって、内部デプロイメントは、フロンティアAIシステムによるメリットとリスクの重要な源である。
それにもかかわらず、高度に高度なフロンティアAIシステムの内部展開のガバナンスは欠如しているようだ。
このレポートは、内部デプロイメントのガバナンスに関する会話を予備して、この欠如に対処することを目的としている。
それは、内部のデプロイメントの概念化、他のセクターからの学習、既存の法律フレームワークのレビューとその適用性、そして我々が最も関心を持っているシナリオの例を示します。
具体的には、AIシステムの内部的応用による制御の喪失と、AI研究・開発パイプライン、およびドアの内側の非拘束かつ未検出の電力集中との関連性について論じる。
このレポートは、内部デプロイメントのガバナンスのための最初の青写真を提供する、少数のターゲットのレコメンデーションで締めくくっている。
関連論文リスト
- Enabling External Scrutiny of AI Systems with Privacy-Enhancing Technologies [0.0]
この記事では、非営利のOpenMinedが開発した技術インフラが、センシティブな情報を妥協することなく、AIシステムの外部調査を可能にする方法について説明する。
実際には、外部の研究者は、セキュリティ、プライバシ、知的財産に関するAI企業の正当な懸念のために、AIシステムへのアクセスに苦労している。
OpenMinedが開発したエンドツーエンドの技術インフラは、いくつかのPETをさまざまなセットアップに統合し、AIシステムのプライバシー保護監査を可能にする。
論文 参考訳(メタデータ) (2025-02-05T15:31:11Z) - Towards Responsible Governing AI Proliferation [0.0]
論文では、小規模で分散化されたオープンソースのAIモデルの台頭を期待するProliferation'パラダイムを紹介している。
これらの発展は、可能性があり、利益と新たなリスクの両方をもたらす可能性が高いことを示唆している。
論文 参考訳(メタデータ) (2024-12-18T13:10:35Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - How Could Generative AI Support Compliance with the EU AI Act? A Review for Safe Automated Driving Perception [4.075971633195745]
ディープニューラルネットワーク(DNN)は、自動運転車の知覚機能の中心となっている。
EU(EU)人工知能(AI)法は、AIシステムの厳格な規範と標準を確立することによって、これらの課題に対処することを目的としている。
本稿では、DNNに基づく知覚システムに関するEU AI法から生じる要件を要約し、ADにおける既存の生成AIアプリケーションを体系的に分類する。
論文 参考訳(メタデータ) (2024-08-30T12:01:06Z) - Near to Mid-term Risks and Opportunities of Open-Source Generative AI [94.06233419171016]
Generative AIの応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の影響の可能性は、潜在的なリスクに関する活発な議論を引き起こし、より厳格な規制を要求した。
この規制は、オープンソースのジェネレーティブAIの誕生する分野を危険にさらしている可能性が高い。
論文 参考訳(メタデータ) (2024-04-25T21:14:24Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Frontier AI developers need an internal audit function [0.2913760942403036]
記事は、フロンティア人工知能(AI)開発者は内部監査機能を必要としていると主張している。
AI研究開発の急速な進歩を踏まえ、フロンティアAI開発者はリスクガバナンスを強化する必要がある。
論文 参考訳(メタデータ) (2023-05-26T15:48:05Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。