論文の概要: Responsible AI in the Software Industry: A Practitioner-Centered Perspective
- arxiv url: http://arxiv.org/abs/2412.07620v1
- Date: Tue, 10 Dec 2024 15:57:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:38:32.136106
- Title: Responsible AI in the Software Industry: A Practitioner-Centered Perspective
- Title(参考訳): ソフトウェア産業における責任あるAI:実践者中心の視点
- Authors: Matheus de Morais Leça, Mariana Bento, Ronnie de Souza Santos,
- Abstract要約: 本研究では,ソフトウェア実践者がResponsible AI原則と整合する上で直面するプラクティスと課題について検討する。
その結果, 実践者は公平さ, 包括性, 信頼性に対処することが多いが, 透明性や説明責任といった原則は, 実践に比較的注意を払わないことが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Responsible AI principles provide ethical guidelines for developing AI systems, yet their practical implementation in software engineering lacks thorough investigation. Therefore, this study explores the practices and challenges faced by software practitioners in aligning with these principles. Through semi-structured interviews with 25 practitioners, we investigated their methods, concerns, and strategies for addressing Responsible AI in software development. Our findings reveal that while practitioners frequently address fairness, inclusiveness, and reliability, principles such as transparency and accountability receive comparatively less attention in their practices. This scenario highlights gaps in current strategies and the need for more comprehensive frameworks to fully operationalize Responsible AI principles in software engineering.
- Abstract(参考訳): 責任あるAI原則は、AIシステムを開発するための倫理的ガイドラインを提供するが、ソフトウェア工学における実践的な実装は徹底的な調査を欠いている。
そこで本研究では,これらの原則に沿ったソフトウェア実践者が直面する実践と課題について考察する。
25人の実践者との半構造化インタビューを通じて、ソフトウェア開発における責任あるAIに取り組むための方法、関心事、戦略を調査した。
その結果, 実践者は公平さ, 包括性, 信頼性に対処することが多いが, 透明性や説明責任といった原則は, 実践に比較的注意を払わないことが明らかとなった。
このシナリオは、現在の戦略のギャップと、ソフトウェアエンジニアリングにおけるResponsible AI原則を完全に運用するより包括的なフレームワークの必要性を強調します。
関連論文リスト
- Trustworthy AI in practice: an analysis of practitioners' needs and challenges [2.5788518098820337]
多くのフレームワークとガイドラインが、信頼できるAIアプリケーションを実装する実践者を支援しているように見える。
私たちは、AI実践者がTAIの原則、それらにどう対処するか、何を望んでいるのか、といったビジョンを研究します。
私たちは、AI実践者が信頼できるAIアプリケーションを開発するのを助けるためのレコメンデーションを強調します。
論文 参考訳(メタデータ) (2024-05-15T13:02:46Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Towards Implementing Responsible AI [22.514717870367623]
我々は,AIシステムの設計と開発において,ソフトウェア工学で使用されるプロセスに適応する4つの側面を提案する。
健全な発見は、AIシステム設計と開発、ソフトウェアエンジニアリングで使用されるプロセスの適応の4つの側面をカバーしている。
論文 参考訳(メタデータ) (2022-05-09T14:59:23Z) - Software Engineering for Responsible AI: An Empirical Study and
Operationalised Patterns [20.747681252352464]
具体的なパターンの形でAI倫理原則を運用可能なテンプレートを提案する。
これらのパターンは、責任あるAIシステムの開発を容易にする具体的な、運用されたガイダンスを提供する。
論文 参考訳(メタデータ) (2021-11-18T02:18:27Z) - Empowered and Embedded: Ethics and Agile Processes [60.63670249088117]
私たちは倫理的考慮事項を(アジャイル)ソフトウェア開発プロセスに組み込む必要があると論じています。
私たちは、すでに存在しており、確立されたアジャイルソフトウェア開発プロセスで倫理的な議論を実施する可能性を強調しました。
論文 参考訳(メタデータ) (2021-07-15T11:14:03Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Principles to Practices for Responsible AI: Closing the Gap [0.1749935196721634]
インパクトアセスメントフレームワークは、原則と実践のギャップを埋めるための有望なアプローチである、と我々は主張する。
我々は、森林生態系の復元におけるAIの使用に関するケーススタディをレビューし、インパクトアセスメントフレームワークが効果的で責任あるAIプラクティスにどのように変換できるかを実証する。
論文 参考訳(メタデータ) (2020-06-08T16:04:44Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。