論文の概要: Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices
- arxiv url: http://arxiv.org/abs/2006.12358v4
- Date: Wed, 3 Mar 2021 01:59:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-13 04:59:56.469744
- Title: Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices
- Title(参考訳): Responsible AIが現実と出会う - 組織的プラクティスを変えるための実践者の視点から
- Authors: Bogdana Rakova, Jingying Yang, Henriette Cramer, Rumman Chowdhury
- Abstract要約: 本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
- 参考スコア(独自算出の注目度): 3.119859292303396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large and ever-evolving technology companies continue to invest more time and
resources to incorporate responsible Artificial Intelligence (AI) into
production-ready systems to increase algorithmic accountability. This paper
examines and seeks to offer a framework for analyzing how organizational
culture and structure impact the effectiveness of responsible AI initiatives in
practice. We present the results of semi-structured qualitative interviews with
practitioners working in industry, investigating common challenges, ethical
tensions, and effective enablers for responsible AI initiatives. Focusing on
major companies developing or utilizing AI, we have mapped what organizational
structures currently support or hinder responsible AI initiatives, what
aspirational future processes and structures would best enable effective
initiatives, and what key elements comprise the transition from current work
practices to the aspirational future.
- Abstract(参考訳): 大規模で絶え間なく進化するテクノロジー企業は、責任ある人工知能(AI)を生産可能なシステムに組み込んで、アルゴリズムによる説明責任を高めるために、より多くの時間とリソースを投資し続けている。
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
aiを開発し、活用する主要な企業に焦点を当て、現在、責任あるaiイニシアティブをサポートしているか、あるいは妨げている組織構造、効果的なイニシアティブを実現する上で、どのような願望的未来プロセスと構造、現在の作業プラクティスから願望的未来への転換を構成する重要な要素をマッピングした。
関連論文リスト
- AI-Driven Human-Autonomy Teaming in Tactical Operations: Proposed Framework, Challenges, and Future Directions [10.16399860867284]
人工知能(AI)技術は、人間の意思決定能力を増強することで戦術的操作を変革している。
本稿では,AI駆動型人間自律チーム(HAT)を変革的アプローチとして検討する。
我々はAI駆動型HATの重要なコンポーネントに対処する包括的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-28T15:05:16Z) - Generative AI Application for Building Industry [10.154329382433213]
本稿では,建築産業における生成型AI技術,特に大規模言語モデル(LLM)の変容の可能性について検討する。
この研究は、LLMがいかに労働集約的なプロセスを自動化し、建築プラクティスの効率、正確性、安全性を大幅に改善できるかを強調している。
論文 参考訳(メタデータ) (2024-10-01T21:59:08Z) - Do Responsible AI Artifacts Advance Stakeholder Goals? Four Key Barriers Perceived by Legal and Civil Stakeholders [59.17981603969404]
責任あるAI(RAI)コミュニティは、透明性を促進し、AIシステムのガバナンスをサポートするために、多数のプロセスとアーティファクトを導入している。
我々は、責任あるAI活動に関する政策と擁護を通知する19の政府、法律、市民社会の利害関係者と半構造化されたインタビューを行う。
我々は、これらの信念を4つの障壁にまとめて、RAIアーティファクトが(必然的に)市民社会、政府、産業間での権力関係を再構成する方法を説明する。
論文 参考訳(メタデータ) (2024-08-22T00:14:37Z) - Strategic AI adoption in SMEs: A Prescriptive Framework [0.0]
中小企業におけるAI技術の採用は、主にコスト、技術スキルの欠如、従業員の受け入れに関連する大きな障壁に直面している。
本研究では,中小企業におけるAIの効果的な採用を促進するために,総合的な段階的枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T09:49:37Z) - Challenges and Best Practices in Corporate AI Governance:Lessons from the Biopharmaceutical Industry [0.0]
我々は、AIガバナンスを運用しようとする組織が直面する課題について議論する。
これらには、AIガバナンスの物質的スコープをどのように定義するかに関する質問が含まれている。
私たちは、一般的なベストプラクティスでAIガバナンスフレームワークを設計、実装する責任を持つプロジェクトマネージャ、AI実践者、データプライバシオフィサーを提供したいと思っています。
論文 参考訳(メタデータ) (2024-07-07T12:01:42Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Artificial Intelligence for IT Operations (AIOPS) Workshop White Paper [50.25428141435537]
AIOps(Artificial Intelligence for IT Operations)は、マシンラーニング、ビッグデータ、ストリーミング分析、IT運用管理の交差点で発生する、新たな学際分野である。
AIOPSワークショップの主な目的は、アカデミアと産業界の両方の研究者が集まり、この分野での経験、成果、作業について発表することです。
論文 参考訳(メタデータ) (2021-01-15T10:43:10Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。