論文の概要: Trustworthy AI in practice: an analysis of practitioners' needs and challenges
- arxiv url: http://arxiv.org/abs/2407.12135v1
- Date: Wed, 15 May 2024 13:02:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 09:07:34.044570
- Title: Trustworthy AI in practice: an analysis of practitioners' needs and challenges
- Title(参考訳): 信頼できるAIの実践 : 実践者のニーズと課題の分析
- Authors: Maria Teresa Baldassarre, Domenico Gigante, Marcos Kalinowski, Azzurra Ragone, Sara Tibidò,
- Abstract要約: 多くのフレームワークとガイドラインが、信頼できるAIアプリケーションを実装する実践者を支援しているように見える。
私たちは、AI実践者がTAIの原則、それらにどう対処するか、何を望んでいるのか、といったビジョンを研究します。
私たちは、AI実践者が信頼できるAIアプリケーションを開発するのを助けるためのレコメンデーションを強調します。
- 参考スコア(独自算出の注目度): 2.5788518098820337
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been growing attention on behalf of both academic and practice communities towards the ability of Artificial Intelligence (AI) systems to operate responsibly and ethically. As a result, a plethora of frameworks and guidelines have appeared to support practitioners in implementing Trustworthy AI applications (TAI). However, little research has been done to investigate whether such frameworks are being used and how. In this work, we study the vision AI practitioners have on TAI principles, how they address them, and what they would like to have - in terms of tools, knowledge, or guidelines - when they attempt to incorporate such principles into the systems they develop. Through a survey and semi-structured interviews, we systematically investigated practitioners' challenges and needs in developing TAI systems. Based on these practical findings, we highlight recommendations to help AI practitioners develop Trustworthy AI applications.
- Abstract(参考訳): 近年,学術的・実践的なコミュニティを代表して,人工知能(AI)システムが責任と倫理的に機能する能力に注目が集まっている。
その結果、多くのフレームワークやガイドラインが、信頼できるAIアプリケーション(TAI)を実装する実践者を支援するように見えました。
しかし、そのようなフレームワークが使われているのか、どのように使われているのかを調査する研究はほとんど行われていない。
本研究では、AI実践者がTAI原則、それらにどう対処するか、ツール、知識、ガイドラインの観点から、彼らが開発するシステムにそのような原則を組み込もうとするときに、どのようなもの(ツール、知識、ガイドライン)を持ちたいか、というビジョンについて研究する。
調査および半構造化インタビューを通じて,TAIシステム開発における実践者の課題とニーズを体系的に調査した。
これらの実践的な発見に基づいて、我々は、AI実践者が信頼できるAIアプリケーションを開発するのを助けるための推奨事項を強調します。
関連論文リスト
- Towards an Operational Responsible AI Framework for Learning Analytics in Higher Education [0.2796197251957245]
我々は、大手IT企業を含む11の責任あるAIフレームワークを、高等教育におけるLAの文脈にマップする。
この結果、透明性、公平性、説明責任といった7つの重要な原則が特定された。
我々は,HE機関に実践的な指導を提供する新しい枠組みを提案し,コミュニティインプットによって発展するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T08:55:24Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Towards Implementing Responsible AI [22.514717870367623]
我々は,AIシステムの設計と開発において,ソフトウェア工学で使用されるプロセスに適応する4つの側面を提案する。
健全な発見は、AIシステム設計と開発、ソフトウェアエンジニアリングで使用されるプロセスの適応の4つの側面をカバーしている。
論文 参考訳(メタデータ) (2022-05-09T14:59:23Z) - Software Engineering for Responsible AI: An Empirical Study and
Operationalised Patterns [20.747681252352464]
具体的なパターンの形でAI倫理原則を運用可能なテンプレートを提案する。
これらのパターンは、責任あるAIシステムの開発を容易にする具体的な、運用されたガイダンスを提供する。
論文 参考訳(メタデータ) (2021-11-18T02:18:27Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - On the Morality of Artificial Intelligence [154.69452301122175]
本稿では,機械学習の研究・展開に関する概念的かつ実践的な原則とガイドラインを提案する。
我々は,より倫理的で道徳的なMLの実践を追求するために,実践者が採る具体的な行動を主張している。
論文 参考訳(メタデータ) (2019-12-26T23:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。