論文の概要: Towards AI Accountability Infrastructure: Gaps and Opportunities in AI
Audit Tooling
- arxiv url: http://arxiv.org/abs/2402.17861v1
- Date: Tue, 27 Feb 2024 19:52:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 17:13:27.695171
- Title: Towards AI Accountability Infrastructure: Gaps and Opportunities in AI
Audit Tooling
- Title(参考訳): AIアカウンタビリティインフラストラクチャを目指す - AI監査ツールのギャップと機会
- Authors: Victor Ojewale, Ryan Steed, Briana Vecchione, Abeba Birhane, and
Inioluwa Deborah Raji
- Abstract要約: 監査は、デプロイされた人工知能(AI)システムのリスクと限界を特定するための重要なメカニズムである。
私たちは利用可能なAI監査ツールの現在のエコシステムをマップします。
我々は、多くのAI監査実践者にとって、ニーズの全範囲を適切にサポートするリソースが不足していると結論付けている。
- 参考スコア(独自算出の注目度): 1.841662059101602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Audits are critical mechanisms for identifying the risks and limitations of
deployed artificial intelligence (AI) systems. However, the effective execution
of AI audits remains incredibly difficult. As a result, practitioners make use
of various tools to support their efforts. Drawing on interviews with 35 AI
audit practitioners and a landscape analysis of 390 tools, we map the current
ecosystem of available AI audit tools. While there are many tools designed to
assist practitioners with setting standards and evaluating AI systems, these
tools often fell short of supporting the accountability goals of AI auditing in
practice. We thus highlight areas for future tool development beyond evaluation
-- from harms discovery to advocacy -- and outline challenges practitioners
faced in their efforts to use AI audit tools. We conclude that resources are
lacking to adequately support the full scope of needs for many AI audit
practitioners and recommend that the field move beyond tools for just
evaluation, towards more comprehensive infrastructure for AI accountability.
- Abstract(参考訳): 監査は、デプロイされた人工知能(AI)システムのリスクと限界を特定するための重要なメカニズムである。
しかし、AI監査の効果的な実行は、依然として信じられないほど難しい。
結果として、実践者は様々なツールを使って努力を支援します。
35人のAI監査実践者とのインタビューと390のツールのランドスケープ分析に基づいて、利用可能なAI監査ツールの現在のエコシステムをマップします。
標準の設定やaiシステムの評価を支援するツールが数多く存在するが、これらのツールは、実際にai監査の説明責任の目標をサポートするのに不足していることが多い。
したがって、私たちは、発見から擁護まで、評価以外の将来のツール開発分野を強調し、AI監査ツールを使用する上で実践者が直面した課題を概説する。
我々は、多くのAI監査実践者のニーズの全範囲を適切にサポートするリソースが不足していると結論付け、現場は単に評価のためのツールを超えて、AI説明責任のためのより包括的なインフラへと移行することを推奨する。
関連論文リスト
- Beyond Recommender: An Exploratory Study of the Effects of Different AI
Roles in AI-Assisted Decision Making [48.179458030691286]
Recommender、Analyzer、Devil's Advocateの3つのAIの役割について検討する。
以上の結果から,各役割のタスクパフォーマンス,信頼性の適切性,ユーザエクスペリエンスにおける長所と短所が明らかとなった。
これらの洞察は、異なる状況に応じて適応的な機能的役割を持つAIアシスタントを設計する上で、貴重な意味を提供する。
論文 参考訳(メタデータ) (2024-03-04T07:32:28Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - AI auditing: The Broken Bus on the Road to AI Accountability [1.9758196889515185]
「AI監査」エコシステムは泥だらけで不正確で、様々な概念を掘り下げて、実践に関わるステークホルダーをマップアウトするのは困難です。
まず、規制当局、法律事務所、市民社会、ジャーナリズム、アカデミック、コンサルティング機関による現在のAI監査の実践を分類する。
私たちは、AI監査研究のごく一部だけが、望ましい説明責任の結果に変換されていることに気付きました。
論文 参考訳(メタデータ) (2024-01-25T19:00:29Z) - Assessing AI Impact Assessments: A Classroom Study [14.768235460961876]
提案されたAIシステムへの影響を想像するための構造化プロセスを提供するツール群であるAIIA(Artificial Intelligence Impact Assessments)が、AIシステムを管理するための提案としてますます人気が高まっている。
近年、政府や民間団体の取り組みによりAIIAの多様なインスタンス化が提案されている。
我々は,AIの社会的・倫理的意味に焦点をあてた選択科目において,大規模な研究集約大学(R1)で授業研究を行う。
影響評価が参加者の潜在能力に対する認識に影響を及ぼすという予備的証拠を見いだす。
論文 参考訳(メタデータ) (2023-11-19T01:00:59Z) - Artificial Intelligence for Technical Debt Management in Software
Development [0.0]
ソフトウェア開発における技術的負債回避のためのAI駆動ツールの使用に関する既存の研究のレビュー。
AIはソフトウェア開発における技術的負債管理を大幅に改善する可能性がある、と提案する。
AIを開発プロセスに活用しようとするソフトウェア開発チームに対して,実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2023-06-16T21:59:22Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Actionable Approaches to Promote Ethical AI in Libraries [7.1492901819376415]
多くの領域で人工知能(AI)が広く使われていることで、多くの倫理的問題が明らかになっている。
現在、意図された、あるいはデプロイされたAIの倫理を計画し、評価し、監査するライブラリのための実践的なガイダンスは存在しない。
我々は、他の文脈から適応可能な倫理的AIを促進するためのいくつかの有望なアプローチについて報告する。
論文 参考訳(メタデータ) (2021-09-20T16:38:49Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。