論文の概要: AI Adoption Across Mission-Driven Organizations
- arxiv url: http://arxiv.org/abs/2510.03868v1
- Date: Sat, 04 Oct 2025 16:28:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.30815
- Title: AI Adoption Across Mission-Driven Organizations
- Title(参考訳): ミッション駆動組織全体のAI導入
- Authors: Dalia Ali, Muneeb Ahmed, Hailan Wang, Arfa Khan, Naira Paola Arnez Jordan, Sunnie S. Y. Kim, Meet Dilip Muchhala, Anne Kathrin Merkle, Orestis Papakyriakopoulos,
- Abstract要約: 本研究は、ミッション駆動型組織(MDO)におけるAI導入の理解に焦点を当てる。
MDOはAIを選択的に採用し、ミッションクリティカルなアプリケーションに対する人間の監視を維持しながら、コンテンツ作成とデータ分析に洗練された展開を行う。
この研究は、MDOにおけるAIの採用は必然ではなく条件として理解されるべきである、という実証的な証拠に寄与する。
- 参考スコア(独自算出の注目度): 9.859437199012774
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite AI's promise for addressing global challenges, empirical understanding of AI adoption in mission-driven organizations (MDOs) remains limited. While research emphasizes individual applications or ethical principles, little is known about how resource-constrained, values-driven organizations navigate AI integration across operations. We conducted thematic analysis of semi-structured interviews with 15 practitioners from environmental, humanitarian, and development organizations across the Global North and South contexts. Our analysis examines how MDOs currently deploy AI, what barriers constrain adoption, and how practitioners envision future integration. MDOs adopt AI selectively, with sophisticated deployment in content creation and data analysis while maintaining human oversight for mission-critical applications. When AI's efficiency benefits conflict with organizational values, decision-making stalls rather than negotiating trade-offs. This study contributes empirical evidence that AI adoption in MDOs should be understood as conditional rather than inevitable, proceeding only where it strengthens organizational sovereignty and mission integrity while preserving human-centered approaches essential to their missions.
- Abstract(参考訳): グローバルな課題に対処するAIの約束にもかかわらず、ミッション駆動組織(MDO)におけるAIの採用に関する実証的な理解は依然として限られている。
研究は個々のアプリケーションや倫理的原則を強調するが、資源に制約のある価値駆動型組織が運用全体にわたってAI統合をナビゲートする方法については、ほとんど知られていない。
環境・人道・開発機関の実践者15人との半構造化インタビューのテーマ分析を行った。
我々の分析は、MDOが現在どのようにAIをデプロイしているか、どのような障壁が採用を制限するのか、そして実践者が将来の統合をどう考えているかを調べる。
MDOはAIを選択的に採用し、ミッションクリティカルなアプリケーションに対する人間の監視を維持しながら、コンテンツ作成とデータ分析に洗練された展開を行う。
AIの効率性が組織的価値と矛盾する場合、トレードオフ交渉よりも意思決定が停滞する。
この研究は、MDOにおけるAIの採用は必然ではなく条件として理解されるべきである、という実証的な証拠を提供し、ミッションに不可欠な人間中心のアプローチを維持しながら、組織的な主権とミッションの整合性を強化する。
関連論文リスト
- Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Making Sense of AI Limitations: How Individual Perceptions Shape Organizational Readiness for AI Adoption [0.0]
本研究では,人工知能(AI)の限界に対する個人の認識が,AI導入の組織的準備にどのように影響するかを検討する。
この研究は、個々のセンスメイキング、社会学習、フォーマルな統合プロセスの間の動的相互作用を通じて、組織的準備が生まれることを明らかにしている。
論文 参考訳(メタデータ) (2025-02-21T18:31:08Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [51.85131234265026]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Can We Trust AI Agents? A Case Study of an LLM-Based Multi-Agent System for Ethical AI [10.084913433923566]
AIベースのシステムは、多様なタスクをサポートすることによって数百万に影響を及ぼすが、誤情報、偏見、誤用といった問題に直面している。
本研究では,Large Language Models (LLM) を用いたAI倫理の実践について検討する。
エージェントがAIインシデントデータベースから現実のAI倫理問題に関する構造化された議論を行うプロトタイプを設計する。
論文 参考訳(メタデータ) (2024-10-25T20:17:59Z) - Responsible AI for Earth Observation [10.380878519901998]
私たちはAIとEOの交差点を体系的に定義し、責任あるAIプラクティスに重点を置いています。
学術と産業の両面からこの探究を導く重要な要素をいくつか挙げる。
本稿は、今後の研究成果に価値ある洞察を提供するとともに、今後の可能性と新たなトレンドを探求する。
論文 参考訳(メタデータ) (2024-05-31T14:47:27Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - Achieving a Data-driven Risk Assessment Methodology for Ethical AI [3.523208537466128]
我々は,AIを用いた組織が直面する倫理的・社会的リスクの実践的定義の基盤として,多分野の研究アプローチが重要であることを示す。
本稿では,DRESS-eAIという新たなリスク評価手法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:55:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。