論文の概要: Advancing AI Audits for Enhanced AI Governance
- arxiv url: http://arxiv.org/abs/2312.00044v1
- Date: Sun, 26 Nov 2023 16:18:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 03:59:27.387258
- Title: Advancing AI Audits for Enhanced AI Governance
- Title(参考訳): AIガバナンスの強化のためのAI監査の強化
- Authors: Arisa Ema, Ryo Sato, Tomoharu Hase, Masafumi Nakano, Shinji Kamimura,
Hiromu Kitamura
- Abstract要約: このポリシーレコメンデーションは、AIサービスやシステムの監査に関する問題を要約する。
健全なAIガバナンスに寄与するAI監査を促進するための3つの推奨事項を提示している。
- 参考スコア(独自算出の注目度): 1.875782323187985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As artificial intelligence (AI) is integrated into various services and
systems in society, many companies and organizations have proposed AI
principles, policies, and made the related commitments. Conversely, some have
proposed the need for independent audits, arguing that the voluntary principles
adopted by the developers and providers of AI services and systems
insufficiently address risk. This policy recommendation summarizes the issues
related to the auditing of AI services and systems and presents three
recommendations for promoting AI auditing that contribute to sound AI
governance. Recommendation1.Development of institutional design for AI audits.
Recommendation2.Training human resources for AI audits. Recommendation3.
Updating AI audits in accordance with technological progress.
In this policy recommendation, AI is assumed to be that which recognizes and
predicts data with the last chapter outlining how generative AI should be
audited.
- Abstract(参考訳): 人工知能(AI)が社会の様々なサービスやシステムに統合されるにつれて、多くの企業や組織がAIの原則や政策を提案し、関連するコミットメントを行った。
逆に、独立監査の必要性を提案し、AIサービスやシステムの開発者や提供者が採用する自発的な原則がリスクを十分に解決する、と主張する者もいる。
このポリシーレコメンデーションは、AIサービスとシステムの監査に関する問題を要約し、健全なAIガバナンスに寄与するAI監査を促進するための3つのレコメンデーションを提示する。
勧告1.AI監査のための制度設計の開発
推薦2.AI監査のための人材育成
勧告3。
技術進歩に応じてAI監査を更新する。
このポリシーレコメンデーションでは、AIは、生成AIがどのように監査されるべきかを概説する最後の章でデータを認識し、予測するものであると仮定されている。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Towards Implementing Responsible AI [22.514717870367623]
我々は,AIシステムの設計と開発において,ソフトウェア工学で使用されるプロセスに適応する4つの側面を提案する。
健全な発見は、AIシステム設計と開発、ソフトウェアエンジニアリングで使用されるプロセスの適応の4つの側面をカバーしている。
論文 参考訳(メタデータ) (2022-05-09T14:59:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Conformity Assessments and Post-market Monitoring: A Guide to the Role
of Auditing in the Proposed European AI Regulation [0.0]
欧州人工知能法(European Artificial Intelligence Act)において提案されている2つの主要な執行機構について解説し議論する。
我々はAI監査を行うためのヨーロッパ規模のエコシステムを確立するための提案としてAIAが解釈できると論じる。
論文 参考訳(メタデータ) (2021-11-09T11:59:47Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。