論文の概要: The Necessity of AI Audit Standards Boards
- arxiv url: http://arxiv.org/abs/2404.13060v1
- Date: Thu, 11 Apr 2024 15:08:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-28 11:25:01.611460
- Title: The Necessity of AI Audit Standards Boards
- Title(参考訳): AI監査基準ボードの必要性
- Authors: David Manheim, Sammy Martin, Mark Bailey, Mikhail Samin, Ross Greutzmacher,
- Abstract要約: 我々は、監査基準の作成は不十分であるだけでなく、無害で一貫性のない基準を広めることによって積極的に有害であると主張している。
代わりに、監査方法と標準を開発・更新する責任を持つAI監査基準委員会(AI Audit Standards Board)の設立を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Auditing of AI systems is a promising way to understand and manage ethical problems and societal risks associated with contemporary AI systems, as well as some anticipated future risks. Efforts to develop standards for auditing Artificial Intelligence (AI) systems have therefore understandably gained momentum. However, we argue that creating auditing standards is not just insufficient, but actively harmful by proliferating unheeded and inconsistent standards, especially in light of the rapid evolution and ethical and safety challenges of AI. Instead, the paper proposes the establishment of an AI Audit Standards Board, responsible for developing and updating auditing methods and standards in line with the evolving nature of AI technologies. Such a body would ensure that auditing practices remain relevant, robust, and responsive to the rapid advancements in AI. The paper argues that such a governance structure would also be helpful for maintaining public trust in AI and for promoting a culture of safety and ethical responsibility within the AI industry. Throughout the paper, we draw parallels with other industries, including safety-critical industries like aviation and nuclear energy, as well as more prosaic ones such as financial accounting and pharmaceuticals. AI auditing should emulate those fields, and extend beyond technical assessments to include ethical considerations and stakeholder engagement, but we explain that this is not enough; emulating other fields' governance mechanisms for these processes, and for audit standards creation, is a necessity. We also emphasize the importance of auditing the entire development process of AI systems, not just the final products...
- Abstract(参考訳): AIシステムの監査は、現代のAIシステムに関連する倫理的問題や社会的リスクを理解し、管理するための有望な方法であり、将来的なリスクも期待されている。
人工知能(AI)システムの監査基準の策定への取り組みは、当然のことながら勢いを増している。
しかし、我々は、監査基準の作成は不十分であるだけでなく、AIの急速な進化と倫理的および安全上の課題を考慮して、無害で一貫性のない標準を増大させることによって積極的に有害であると主張している。
代わりに、AI技術の進化する性質に沿って監査方法と標準を開発・更新する責任を持つAI監査基準委員会(AI Audit Standards Board)の設立を提案する。
このような組織は、監査のプラクティスが、AIの急速な進歩に関連性を持ち、堅牢であり、応答することを保証する。
論文では、このようなガバナンス構造は、AIに対する公的な信頼を維持し、AI業界における安全と倫理的責任の文化を促進する上でも役立つと論じている。
論文全体を通して、航空や原子力といった安全クリティカルな産業や、金融会計や医薬品など、よりプロザイクな産業など、他の産業と類似している。
AI監査はこれらの分野をエミュレートし、倫理的考慮や利害関係者の関与を含むための技術的評価を超えて行うべきである。
また、最終製品だけでなく、AIシステムの開発プロセス全体を監査することの重要性も強調しています。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in
Practice [2.1485350418225244]
我々は,現代産業・社会利用の規模で倫理的AIを構築し,展開する上での実践的課題を概観する。
我々は、倫理的AIを実際に構築するには、AIシステムの開発と展開における倫理の全体的考慮が必要であると論じる。
論文 参考訳(メタデータ) (2021-08-11T18:33:17Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。