論文の概要: An Empirical Study on Decision-Making Aspects in Responsible Software Engineering for AI
- arxiv url: http://arxiv.org/abs/2501.15691v2
- Date: Tue, 28 Jan 2025 07:59:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 13:21:35.241333
- Title: An Empirical Study on Decision-Making Aspects in Responsible Software Engineering for AI
- Title(参考訳): 責任あるAIソフトウェア工学における意思決定的側面に関する実証的研究
- Authors: Lekshmi Murali Rani, Faezeh Mohammadi, Robert Feldt, Richard Berntsson Svensson,
- Abstract要約: 本研究では、AIの責任あるソフトウェア工学(RSE)に固有の倫理的課題と複雑さについて検討する。
個人の価値観、新しい役割、そしてAIに対する認識は、AIのためのRSEにおける決定に責任を負う。
- 参考スコア(独自算出の注目度): 5.564793925574796
- License:
- Abstract: Incorporating responsible practices into software engineering (SE) for AI is essential to ensure ethical principles, societal impact, and accountability remain at the forefront of AI system design and deployment. This study investigates the ethical challenges and complexities inherent in responsible software engineering (RSE) for AI, underscoring the need for practical,scenario-driven operational guidelines. Given the complexity of AI and the relative inexperience of professionals in this rapidly evolving field, continuous learning and market adaptation are crucial. Through qualitative interviews with seven practitioners(conducted until saturation), quantitative surveys of 51 practitioners, and static validation of results with four industry experts in AI, this study explores how personal values, emerging roles, and awareness of AIs societal impact influence responsible decision-making in RSE for AI. A key finding is the gap between the current state of the art and actual practice in RSE for AI, particularly in the failure to operationalize ethical and responsible decision-making within the software engineering life cycle for AI. While ethical issues in RSE for AI largely mirror those found in broader SE process, the study highlights a distinct lack of operational frameworks and resources to guide RSE practices for AI effectively. The results reveal that current ethical guidelines are insufficiently implemented at the operational level, reinforcing the complexity of embedding ethics throughout the software engineering life cycle. The study concludes that interdisciplinary collaboration, H-shaped competencies(Ethical-Technical dual competence), and a strong organizational culture of ethics are critical for fostering RSE practices for AI, with a particular focus on transparency and accountability.
- Abstract(参考訳): AIのためのソフトウェアエンジニアリング(SE)に責任あるプラクティスを組み込むことは、倫理的原則、社会的影響、説明責任がAIシステム設計とデプロイメントの最前線に残ることを保証するために不可欠である。
本研究では,AIの責任あるソフトウェア工学(RSE)に固有の倫理的課題と複雑さについて検討し,実践的,シナリオ駆動型の運用ガイドラインの必要性を浮き彫りにした。
AIの複雑さと、この急速に発展する分野におけるプロフェッショナルの相対的不経験を考えると、継続的学習と市場適応が不可欠である。
7人の実践者との質的なインタビュー(飽和まで実施される)、51人の実践者の定量的調査、そしてAIの4つの業界専門家による結果の静的検証を通じて、この研究は、AIのためのRSEにおける意思決定に影響を及ぼす社会的影響について、個人的価値、新しい役割、そしてAIの認識について調査する。
重要な発見は、AIのためのRSEにおける現在の最先端と実際の実践のギャップ、特にAIのためのソフトウェアエンジニアリングライフサイクルにおける倫理的かつ責任ある意思決定の運用の失敗である。
RSE for AIの倫理的な問題は、より広範なSEプロセスに見られる問題と大差ないが、この研究は、AIのRSEプラクティスを効果的に導くための運用フレームワークとリソースの明確な欠如を強調している。
その結果、現在の倫理ガイドラインは運用レベルでは不十分であり、ソフトウェア工学ライフサイクル全体を通して倫理を埋め込むことの複雑さを補強していることが明らかとなった。
この研究は、学際的なコラボレーション、H字型の能力(倫理と技術の二重能力)、倫理の強い組織文化が、透明性と説明責任に特に焦点をあてて、AIのためのRSEプラクティスを育むために重要であると結論付けている。
関連論文リスト
- Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Diversity and Inclusion in AI for Recruitment: Lessons from Industry Workshop [44.807030880787345]
本研究では,AIによるオンライン求人システムにおけるD&Iガイドラインの実践的適用について検討する。
我々は多国籍採用企業と共同設計ワークショップを開催した。
この結果は、AIプラクティスの効果的な採用を保証するために、カスタマイズされたD&Iガイドラインと継続的なサポートを開発することを示唆している。
論文 参考訳(メタデータ) (2024-11-09T04:45:47Z) - Testing autonomous vehicles and AI: perspectives and challenges from cybersecurity, transparency, robustness and fairness [53.91018508439669]
この研究は、人工知能を自律走行車(AV)に統合する複雑さを探求する
AIコンポーネントがもたらした課題と、テスト手順への影響を調べます。
本稿は、重要な課題を特定し、AV技術におけるAIの研究・開発に向けた今後の方向性を提案する。
論文 参考訳(メタデータ) (2024-02-21T08:29:42Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - Responsible Design Patterns for Machine Learning Pipelines [10.184056098238765]
AI倫理には、AIシステムのライフサイクル全体に倫理的原則を適用することが含まれる。
これは、バイアスなどのAIに関連する潜在的なリスクと害を軽減するために不可欠である。
この目標を達成するために、責任あるデザインパターン(RDP)は機械学習(ML)パイプラインに不可欠である。
論文 参考訳(メタデータ) (2023-05-31T15:47:12Z) - Beyond Fairness Metrics: Roadblocks and Challenges for Ethical AI in
Practice [2.1485350418225244]
我々は,現代産業・社会利用の規模で倫理的AIを構築し,展開する上での実践的課題を概観する。
我々は、倫理的AIを実際に構築するには、AIシステムの開発と展開における倫理の全体的考慮が必要であると論じる。
論文 参考訳(メタデータ) (2021-08-11T18:33:17Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。