論文の概要: Safety First: Psychological Safety as the Key to AI Transformation
- arxiv url: http://arxiv.org/abs/2602.23279v1
- Date: Thu, 26 Feb 2026 17:53:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.82331
- Title: Safety First: Psychological Safety as the Key to AI Transformation
- Title(参考訳): 安全第一:AI変革の鍵としての心理的安全
- Authors: Aaron Reich, Diana Wolfe, Matt Price, Alice Choe, Fergus Kidd, Hannah Wagner,
- Abstract要約: 本研究は、職場における心理的安全性とAIの採用と利用との関連性を検討する。
論理的および線形回帰分析は、心理的安全性が従業員がAIツールを採用するかどうかを確実に予測することを示している。
この研究は、採用と持続的な使用を区別する必要性を浮き彫りにしている。
- 参考スコア(独自算出の注目度): 0.36944296923226316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Organizations continue to invest in artificial intelligence, yet many struggle to ensure that employees adopt and engage with these tools. Drawing on research highlighting the interpersonal and learning demands of technology use, this study examines whether psychological safety is associated with AI adoption and usage in the workplace. Using survey data from 2,257 employees in a global consulting firm, we test whether psychological safety is associated with adoption, usage frequency, and usage duration; and whether these relationships vary by organizational level, professional experience, or geographic region. Logistic and linear regression analyses show that psychological safety reliably predicts whether employees adopt AI tools but does not predict how often or how long they use AI once adoption has occurred. Moreover, the relationship between psychological safety and AI adoption is consistent across experience levels, role levels, and regions, and no moderation effects emerge. These findings suggest that psychological safety functions as a key antecedent of initial AI engagement but not of subsequent usage intensity. The study underscores the need to distinguish between adoption and sustained use and highlights opportunities for targeted organizational interventions in early-stage AI implementation.
- Abstract(参考訳): 組織は引き続き人工知能に投資し続けていますが、従業員がこれらのツールの採用と関与を確実にするために多くの苦労をしています。
本研究は,技術利用の対人的・学習的要求を浮き彫りにした研究に基づいて,職場におけるAIの採用と利用に心理的安全性が関連しているかどうかを検討する。
グローバルコンサルティング会社の従業員2,257人の調査データを用いて、心理的安全性が採用、利用頻度、利用期間と関連しているかどうか、そしてこれらの関係が組織レベル、専門的経験、地域によって異なるかどうかを検証した。
論理的および線形回帰分析により、心理的安全性は、従業員がAIツールを採用するかどうかを確実に予測するが、採用後にAIを使用する頻度や期間を予測しないことを示している。
さらに、心理的安全性とAIの採用との関係は、経験レベル、役割レベル、地域によって一致しており、モデレーション効果は発生しない。
これらの結果は、心理的安全性機能が初期のAIの関与の鍵となるが、その後の使用強度にはならないことを示唆している。
この研究は、採用と持続的な使用の区別の必要性を強調し、アーリーステージAI実装における組織的介入の機会を強調している。
関連論文リスト
- Work Design and Multidimensional AI Threat as Predictors of Workplace AI Adoption and Depth of Use [0.36944296923226316]
本研究は、職場におけるAIの採用と利用深度を共同で予測する動機づけ型仕事特性と多次元AI脅威知覚について検討する。
2,257人の従業員による横断的な調査データを用いて、私たちは、AIの採用と使用深度に関する多変量予測とともに、役割レベル、経験年数、地域にわたるグループ差をテストしました。
論文 参考訳(メタデータ) (2026-02-26T17:52:29Z) - Understanding Risk and Dependency in AI Chatbot Use from User Discourse [4.1957094635667875]
本稿では,2023年から2025年にかけての2つのコミュニティ,r/AIDangers と r/ChatbotAddiction から収集したポストを大規模に解析した。
14の反復的主題カテゴリーを同定し、5つの高次経験次元に合成する。
この結果から,実世界のユーザ談話に基礎を置くAI関連心理的リスクの5つの経験的次元が明らかとなった。
論文 参考訳(メタデータ) (2026-02-10T02:16:57Z) - Revisiting UTAUT for the Age of AI: Understanding Employees AI Adoption and Usage Patterns Through an Extended UTAUT Framework [0.0]
本研究では、職場における人工知能(AI)技術に対して、従業員の人口構成要因が採用や態度を形作るかどうかを検討する。
多国籍コンサルティング会社内のグローバルリージョンと組織レベルの専門家2,257人を対象に調査を行った。
論文 参考訳(メタデータ) (2025-10-16T21:01:41Z) - Is It Safe To Learn And Share? On Psychological Safety and Social Learning in (Agile) Communities of Practice [4.662447283600293]
コミュニティ・オブ・プラクティス(CoP)は、フォーマルな教育を超えた社会的学習を支援するためにますます採用されている。
心理的安全性は、効果的な学習の前提条件であり、これらの設定では十分に理解されていない。
本研究は,143人の参加者を対象に,アジャイルCoPの心理的安全性を調査した。
論文 参考訳(メタデータ) (2025-06-30T19:06:43Z) - Report on NSF Workshop on Science of Safe AI [75.96202715567088]
機械学習の新たな進歩は、社会問題に対する技術ベースのソリューションを開発する新たな機会につながっている。
AIの約束を果たすためには、正確でパフォーマンスが高く、安全で信頼性の高いAIベースのシステムを開発する方法に取り組む必要がある。
本報告はワークショップの安全性の異なる側面に対処した作業グループにおける議論の結果である。
論文 参考訳(メタデータ) (2025-06-24T18:55:29Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - A risk model and analysis method for the psychological safety of human and autonomous vehicles interaction [4.627842277006583]
本稿では,AVの文脈における心理的安全性の定義を紹介する。
AVの心理的危険とリスクを特定し評価するためのリスクモデルを提案する。
本論文は、自律走行車における家族の経験を取り入れたシナリオを用いて、潜在的な心理的危険を評価するための枠組みの適用について述べる。
論文 参考訳(メタデータ) (2024-11-08T17:44:40Z) - How Performance Pressure Influences AI-Assisted Decision Making [52.997197698288936]
我々は、プレッシャーと説明可能なAI(XAI)技術がAIアドバイステイク行動とどのように相互作用するかを示す。
我々の結果は、圧力とXAIの異なる組み合わせで複雑な相互作用効果を示し、AIアドバイスの行動を改善するか、悪化させるかのどちらかを示す。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。