論文の概要: Making Sense of AI Limitations: How Individual Perceptions Shape Organizational Readiness for AI Adoption
- arxiv url: http://arxiv.org/abs/2502.15870v1
- Date: Fri, 21 Feb 2025 18:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:58:47.197376
- Title: Making Sense of AI Limitations: How Individual Perceptions Shape Organizational Readiness for AI Adoption
- Title(参考訳): AIの限界を理解する - 個々の知覚がAI導入のための組織的準備をいかに形成するか
- Authors: Thomas Übellacker,
- Abstract要約: 本研究では,人工知能(AI)の限界に対する個人の認識が,AI導入の組織的準備にどのように影響するかを検討する。
この研究は、個々のセンスメイキング、社会学習、フォーマルな統合プロセスの間の動的相互作用を通じて、組織的準備が生まれることを明らかにしている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study investigates how individuals' perceptions of artificial intelligence (AI) limitations influence organizational readiness for AI adoption. Through semi-structured interviews with seven AI implementation experts, analyzed using the Gioia methodology, the research reveals that organizational readiness emerges through dynamic interactions between individual sensemaking, social learning, and formal integration processes. The findings demonstrate that hands-on experience with AI limitations leads to more realistic expectations and increased trust, mainly when supported by peer networks and champion systems. Organizations that successfully translate these individual and collective insights into formal governance structures achieve more sustainable AI adoption. The study advances theory by showing how organizational readiness for AI adoption evolves through continuous cycles of individual understanding, social learning, and organizational adaptation. These insights suggest that organizations should approach AI adoption not as a one-time implementation but as an ongoing strategic learning process that balances innovation with practical constraints. The research contributes to organizational readiness theory and practice by illuminating how micro-level perceptions and experiences shape macro-level adoption outcomes.
- Abstract(参考訳): 本研究では,人工知能(AI)の限界に対する個人の認識が,AI導入の組織的準備にどのように影響するかを検討する。
7人のAI実践専門家との半構造化されたインタビューを通じて、Gioiaの方法論を用いて分析した結果、個々のセンスメイキング、ソーシャルラーニング、フォーマルな統合プロセス間の動的相互作用を通じて、組織的準備が生まれることが明らかになった。
この結果は、AIの制限によるハンズオン体験が、主にピアネットワークやチャンピオンシステムによってサポートされた場合、より現実的な期待と信頼の向上につながることを示している。
これらの個人的および集団的な洞察を形式的なガバナンス構造にうまく翻訳する組織は、より持続可能なAI採用を実現する。
この研究は、個人の理解、社会学習、組織適応の継続的なサイクルを通じて、AI導入のための組織的準備がいかに進化するかを示すことによって、理論を前進させる。
これらの洞察は、組織が一度の実装ではなく、イノベーションと実践的な制約のバランスをとる継続的な戦略的学習プロセスとしてAIの採用にアプローチすべきであることを示唆している。
この研究は、ミクロレベルの認識と経験がマクロレベルの採用成果をいかに形作るかを明らかにすることで、組織的準備性理論と実践に寄与する。
関連論文リスト
- Human-Centered AI Transformation: Exploring Behavioral Dynamics in Software Engineering [6.126394204968227]
この研究は、行動ソフトウェア工学をレンズとして使用し、しばしば見過ごされるAI変換の次元を調べる。
我々の発見は、組織がAI転換で直面するこれらのBSEの側面に関連する6つの重要な課題を明らかにしました。
論文 参考訳(メタデータ) (2024-11-13T15:29:24Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Investigating Responsible AI for Scientific Research: An Empirical Study [4.597781832707524]
このような機関におけるResponsible AI(RAI)の推進は、AI設計と開発に倫理的配慮を統合することの重要性の高まりを強調している。
本稿では,AI設計・開発に内在する倫理的リスクに対する意識と準備性を評価することを目的とする。
その結果、倫理的、責任的、包括的AIに関する知識ギャップが明らかとなり、利用可能なAI倫理フレームワークに対する認識が制限された。
論文 参考訳(メタデータ) (2023-12-15T06:40:27Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Putting AI Ethics into Practice: The Hourglass Model of Organizational
AI Governance [0.0]
AIシステムの開発と利用を目標とする,AIガバナンスフレームワークを提案する。
このフレームワークは、AIシステムをデプロイする組織が倫理的AI原則を実践に翻訳するのを助けるように設計されている。
論文 参考訳(メタデータ) (2022-06-01T08:55:27Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Where Responsible AI meets Reality: Practitioner Perspectives on
Enablers for shifting Organizational Practices [3.119859292303396]
本稿では,組織文化と構造がAI実践における責任あるイニシアチブの有効性に与える影響を分析するための枠組みについて検討し,提案する。
我々は、業界で働く実践者との半構造化質的なインタビューの結果、共通の課題、倫理的緊張、そして責任あるAIイニシアチブのための効果的なイネーブラーについて調査する。
論文 参考訳(メタデータ) (2020-06-22T15:57:30Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。