論文の概要: International Governance of Civilian AI: A Jurisdictional Certification
Approach
- arxiv url: http://arxiv.org/abs/2308.15514v2
- Date: Mon, 11 Sep 2023 14:03:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-12 18:39:07.950964
- Title: International Governance of Civilian AI: A Jurisdictional Certification
Approach
- Title(参考訳): 市民AIの国際ガバナンス : 司法認定アプローチ
- Authors: Robert Trager, Ben Harack, Anka Reuel, Allison Carnegie, Lennart Heim,
Lewis Ho, Sarah Kreps, Ranjit Lall, Owen Larter, Se\'an \'O h\'Eigeartaigh,
Simon Staffell, Jos\'e Jaime Villalobos
- Abstract要約: このアプローチは、グローバルレベルへの標準、ライセンス、責任体制の拡張を表します。
我々は、国家が国際監督基準に準拠した国家司法権を認定する国際AI機関(IAIO)を設立することを提案する。
- 参考スコア(独自算出の注目度): 4.5972119455877065
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This report describes trade-offs in the design of international governance
arrangements for civilian artificial intelligence (AI) and presents one
approach in detail. This approach represents the extension of a standards,
licensing, and liability regime to the global level. We propose that states
establish an International AI Organization (IAIO) to certify state
jurisdictions (not firms or AI projects) for compliance with international
oversight standards. States can give force to these international standards by
adopting regulations prohibiting the import of goods whose supply chains embody
AI from non-IAIO-certified jurisdictions. This borrows attributes from models
of existing international organizations, such as the International Civilian
Aviation Organization (ICAO), the International Maritime Organization (IMO),
and the Financial Action Task Force (FATF). States can also adopt multilateral
controls on the export of AI product inputs, such as specialized hardware, to
non-certified jurisdictions. Indeed, both the import and export standards could
be required for certification. As international actors reach consensus on risks
of and minimum standards for advanced AI, a jurisdictional certification regime
could mitigate a broad range of potential harms, including threats to public
safety.
- Abstract(参考訳): 本報告では,文民人工知能(AI)の国際ガバナンスアレンジメントの設計におけるトレードオフについて述べる。
このアプローチは、標準、ライセンス、責任体制のグローバルレベルへの拡張を表している。
我々は、国際監督基準に準拠した国家司法機関(企業やAIプロジェクトではない)を認定する国際AI機関(IAIO)を設立することを提案する。
国は、サプライチェーンがAIを非IAIO認定の管轄区域から具体化する商品の輸入を禁止する規制を採用することで、これらの国際標準に力を与えることができる。
これは、国際民間航空機関(icao)、国際海事機関(imo)、金融行動タスクフォース(fatf)といった既存の国際組織のモデルに借用されている。
州は、特殊ハードウェアなどのai製品インプットを非認証の管轄区域に輸出する多国間制御も採用できる。
実際、認証には輸出基準と輸出基準の両方が必要である。
国際アクターが高度なAIのリスクと最低限の基準について合意に達すると、司法認定制度は公共の安全への脅威を含む幅広い潜在的な害を軽減できる可能性がある。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - The Role of AI Safety Institutes in Contributing to International Standards for Frontier AI Safety [0.0]
我々は、AI安全研究所(AISI)が、AI安全のための国際標準設定プロセスに貢献するように適切に設定されていると論じる。
我々は、ソウル宣言署名者、米国(およびその他のソウル宣言署名者)、中国、グローバル包括的3つのモデルを提案し、評価する。
論文 参考訳(メタデータ) (2024-09-17T16:12:54Z) - The potential functions of an international institution for AI safety. Insights from adjacent policy areas and recent trends [0.0]
OECD、G7、G20、ユネスコ、欧州評議会はすでに倫理的かつ責任あるAIガバナンスのためのフレームワークの開発を始めている。
この章は、国際AI安全機関が実行可能な機能について考察する。
論文 参考訳(メタデータ) (2024-08-31T10:04:53Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - International Institutions for Advanced AI [47.449762587672986]
国際機関は、高度なAIシステムが人類に利益をもたらすための重要な役割を担っているかもしれない。
本稿では,これらの課題に対処するために,国際レベルで実施可能な一連のガバナンス機能について述べる。
これらの機能を4つの組織モデルに分類し、内部のシナジーを示し、既存の組織で先例を持つ。
論文 参考訳(メタデータ) (2023-07-10T16:55:55Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z) - Regulating Artificial Intelligence: Proposal for a Global Solution [6.037312672659089]
我々は、AI関連の課題は、誠実な国際調整なしには効果的に対処できないと論じる。
我々は,新たなAI規制機関を中心に組織された国際AIガバナンスフレームワークの確立を提案する。
論文 参考訳(メタデータ) (2020-05-22T09:24:07Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。