論文の概要: AI Certification: Advancing Ethical Practice by Reducing Information
Asymmetries
- arxiv url: http://arxiv.org/abs/2105.10356v1
- Date: Thu, 20 May 2021 08:27:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 07:10:32.738685
- Title: AI Certification: Advancing Ethical Practice by Reducing Information
Asymmetries
- Title(参考訳): AI認定:情報アシンメトリの削減による倫理的実践の促進
- Authors: Peter Cihon, Moritz J. Kleinaltenkamp, Jonas Schuett, Seth D. Baum
- Abstract要約: 本稿は、現在のAI認定プログラムと提案の認定とレビューに関する管理文献から引用する。
このレビューは、この分野が現在、システム、個人、組織の自己証明と第三者による認証に焦点を当てていることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As artificial intelligence (AI) systems are increasingly deployed, principles
for ethical AI are also proliferating. Certification offers a method to both
incentivize adoption of these principles and substantiate that they have been
implemented in practice. This paper draws from management literature on
certification and reviews current AI certification programs and proposals.
Successful programs rely on both emerging technical methods and specific design
considerations. In order to avoid two common failures of certification, program
designs should ensure that the symbol of the certification is substantially
implemented in practice and that the program achieves its stated goals. The
review indicates that the field currently focuses on self-certification and
third-party certification of systems, individuals, and organizations - to the
exclusion of process management certifications. Additionally, the paper
considers prospects for future AI certification programs. Ongoing changes in AI
technology suggest that AI certification regimes should be designed to
emphasize governance criteria of enduring value, such as ethics training for AI
developers, and to adjust technical criteria as the technology changes.
Overall, certification can play a valuable mix in the portfolio of AI
governance tools.
- Abstract(参考訳): 人工知能(AI)システムがますます導入されるにつれて、倫理的AIの原則も増加しつつある。
認証は、これらの原則の採用をインセンティブ化し、実際に実施されていることを実証する手段を提供する。
本稿は、現在のAI認定プログラムと提案の認定とレビューに関する管理文献から引用する。
成功するプログラムは、新しい技術的手法と特定の設計上の考慮の両方に依存している。
認証の2つのよくある失敗を避けるため、プログラム設計は、認証のシンボルが実質的に実装され、プログラムが宣言された目標を達成することを保証する必要がある。
このレビューは、現在、プロセス管理の認定を除外するために、システム、個人、組織の自己認証とサードパーティによる認証に焦点を当てていることを示している。
さらに,今後のAI認定プログラムについても検討する。
AIテクノロジの今後の変化は、AI認定制度が、AI開発者のための倫理トレーニングのような永続的な価値のガバナンス基準を強調し、技術の変化に合わせて技術的な基準を調整するように設計されるべきであることを示唆している。
全体として、認定はAIガバナンスツールのポートフォリオにおいて貴重な組み合わせとなる。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Catalog of General Ethical Requirements for AI Certification [0.0]
我々は、これらの原則を技術に実装するためのツールに対して、全体的な倫理的要件と6つの倫理的原則を価値特有な推奨とともに提示する。
私たちの仕事は、信頼できるAIとAI認定のための最小限の倫理的要件を満たすための、潜在的な青写真として、利害関係者を対象としています。
論文 参考訳(メタデータ) (2024-08-22T10:58:41Z) - The Contribution of XAI for the Safe Development and Certification of AI: An Expert-Based Analysis [4.119574613934122]
機械学習モデルのブラックボックスの性質は、複雑な技術システムの認証に対する従来のアプローチの使用を制限する。
潜在的な解決策として、このブラックボックスに関する洞察を与える方法が考えられる。
XAIメソッドは安全なAI開発に役立つが、認証は技術システムに関する包括的で正確な情報に依存しているため、その影響は限定されると予想されている。
論文 参考訳(メタデータ) (2024-07-22T16:08:21Z) - Open Problems in Technical AI Governance [93.89102632003996]
テクニカルAIガバナンス(Technical AI Governance)は、AIの効果的なガバナンスを支援するための技術分析とツールである。
本論文は、AIガバナンスへの貢献を目指す技術研究者や研究資金提供者のためのリソースとして意図されている。
論文 参考訳(メタデータ) (2024-07-20T21:13:56Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Guideline for Trustworthy Artificial Intelligence -- AI Assessment
Catalog [0.0]
AIアプリケーションとそれに基づくビジネスモデルが、高品質な標準に従って開発されている場合にのみ、その潜在能力を最大限に発揮できることは明らかです。
AIアプリケーションの信頼性の問題は非常に重要であり、多くの主要な出版物の主題となっている。
このAIアセスメントカタログは、まさにこの点に対応しており、2つのターゲットグループを対象としている。
論文 参考訳(メタデータ) (2023-06-20T08:07:18Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。