論文の概要: AI Model Registries: A Foundational Tool for AI Governance
- arxiv url: http://arxiv.org/abs/2410.09645v1
- Date: Sat, 12 Oct 2024 20:47:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 08:56:21.592489
- Title: AI Model Registries: A Foundational Tool for AI Governance
- Title(参考訳): AIモデルレジストリ - AIガバナンスの基礎ツール
- Authors: Elliot McKernon, Gwyn Glasser, Deric Cheng, Gillian Hadfield,
- Abstract要約: 我々は,AIガバナンスの基礎ツールとして,フロンティアAIモデルのための国家登録制度の実装を提案する。
我々は、類似産業における登録との比較に基づいて、そのような登録の合理性、設計、実施について考察する。
我々の提案は、イノベーションを育み、開発者の規制負担を最小限に抑えながら、政府の洞察を提供し、AIの安全性を高めるために設計されている。
- 参考スコア(独自算出の注目度): 0.6335617028947046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this report, we propose the implementation of national registries for frontier AI models as a foundational tool for AI governance. We explore the rationale, design, and implementation of such registries, drawing on comparisons with registries in analogous industries to make recommendations for a registry that is efficient, unintrusive, and which will bring AI governance closer to parity with the governmental insight into other high-impact industries. We explore key information that should be collected, including model architecture, model size, compute and data used during training, and we survey the viability and utility of evaluations developed specifically for AI. Our proposal is designed to provide governmental insight and enhance AI safety while fostering innovation and minimizing the regulatory burden on developers. By providing a framework that respects intellectual property concerns and safeguards sensitive information, this registry approach supports responsible AI development without impeding progress. We propose that timely and accurate registration should be encouraged primarily through injunctive action, by requiring third parties to use only registered models, and secondarily through direct financial penalties for non-compliance. By providing a comprehensive framework for AI model registries, we aim to support policymakers in developing foundational governance structures to monitor and mitigate risks associated with advanced AI systems.
- Abstract(参考訳): 本稿では,AIガバナンスの基礎ツールとして,フロンティアAIモデルのための国家登録制度の実装を提案する。
我々は、このようなレジストリの合理性、設計、実装について検討し、類似産業のレジストリとの比較に基づいて、効率的で非侵襲的で、AIガバナンスを他の高影響産業に対する政府の洞察と同等に近づけるレジストリの推薦を行う。
モデルアーキテクチャ、モデルサイズ、トレーニングで使用される計算とデータなど、収集すべき重要な情報を探索し、AI専用に開発された評価の実現可能性と有用性について調査する。
我々の提案は、イノベーションを育み、開発者の規制負担を最小限に抑えながら、政府の洞察を提供し、AIの安全性を高めるために設計されている。
知的財産権の懸念を尊重し、機密情報を保護するフレームワークを提供することで、このレジストリアプローチは進歩を妨げることなく、責任あるAI開発をサポートする。
我々は、第三者に登録されたモデルのみの使用を要求し、第二に、非コンプライアンスに対する直接の金銭的罰則により、時間的かつ正確な登録を、主に命令的行動によって奨励すべきである。
AIモデルレジストリの包括的なフレームワークを提供することで、先進的なAIシステムに関連するリスクを監視し緩和する基礎的なガバナンス構造の開発において、政策立案者を支援することを目指している。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Computing Power and the Governance of Artificial Intelligence [51.967584623262674]
政府や企業は、AIを管理する手段として計算を活用し始めている。
計算ベースのポリシーと技術は、これらの領域を補助する可能性があるが、実装の準備ができている点で大きなバリエーションがある。
プライバシーや経済的影響、権力の中央集権化といった分野において、ガバナンスの計算方法の素早い、あるいは不十分なアプローチは重大なリスクを伴います。
論文 参考訳(メタデータ) (2024-02-13T21:10:21Z) - Oversight for Frontier AI through a Know-Your-Customer Scheme for
Compute Providers [0.8547032097715571]
Know-Your-Customer (KYC) は、銀行部門がクライアントの識別と検証のために開発した標準である。
KYCは、既存の輸出管理におけるフロンティアAI開発とクローズループの監視を強化するメカニズムを提供するかもしれない。
AIチップの購入を制限する戦略とは異なり、計算へのデジタルアクセスを規制することは、より正確な制御を提供する。
論文 参考訳(メタデータ) (2023-10-20T16:17:29Z) - Model Reporting for Certifiable AI: A Proposal from Merging EU
Regulation into AI Development [2.9620297386658185]
ExplainableとSafe AIの大きな進歩にもかかわらず、実践者はAIの安全性に関する規制と標準の欠如に悩まされている。
我々は、開発プロセス全体を通してAIアプリケーションを文書化するための標準化されたカードの使用を提案する。
論文 参考訳(メタデータ) (2023-07-21T12:13:54Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - AI Governance for Businesses [2.072259480917207]
データを有効に活用し、AI関連のコストとリスクを最小限にすることで、AIを活用することを目指している。
この作業では、AIプロダクトをシステムとみなし、機械学習(ML)モデルによって(トレーニング)データを活用する重要な機能が提供される。
我々のフレームワークは、AIガバナンスを4次元に沿ってデータガバナンス、(ML)モデル、(AI)システムに分解します。
論文 参考訳(メタデータ) (2020-11-20T22:31:37Z) - Trustworthy AI Inference Systems: An Industry Research View [58.000323504158054]
我々は、信頼できるAI推論システムの設計、展開、運用にアプローチするための業界調査ビューを提供する。
信頼された実行環境を用いたAIシステムの機会と課題を強調します。
我々は,産業,アカデミック,政府研究者のグローバルな集団的注意を必要とする,さらなる発展の分野を概説する。
論文 参考訳(メタデータ) (2020-08-10T23:05:55Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。