論文の概要: "If You're Very Clever, No One Knows You've Used It": The Social Dynamics of Developing Generative AI Literacy in the Workplace
- arxiv url: http://arxiv.org/abs/2602.01386v1
- Date: Sun, 01 Feb 2026 18:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.760822
- Title: "If You're Very Clever, No One Knows You've Used It": The Social Dynamics of Developing Generative AI Literacy in the Workplace
- Title(参考訳): もしあなたがとてもクレージーなら、誰も使ってない」:職場で生成AIリテラシーを開発する社会的ダイナミクス
- Authors: Qing, Xia, Marios Constantinides, Advait Sarkar, Duncan Brumby, Anna Cox,
- Abstract要約: 我々は、さまざまな分野の知識労働者19名を対象に、GenAI能力の発達状況について詳細なインタビューを行った。
我々は、同僚の知識共有が学習を支援する一方で、GenAIの使用を示す手がかりを除去する能力は、ドメインの専門知識の検証であると認識された。
これらの行動は最終的には知識共有による学習機会を減らし、透明性を損なうことになった。
- 参考スコア(独自算出の注目度): 16.792964152066638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (GenAI) tools are rapidly transforming knowledge work, making AI literacy a critical priority for organizations. However, research on AI literacy lacks empirical insight into how knowledge workers' beliefs around GenAI literacy are shaped by the social dynamics of the workplace, and how workers learn to apply GenAI tools in these environments. To address this gap, we conducted in-depth interviews with 19 knowledge workers across multiple sectors to examine how they develop GenAI competencies in real-world professional contexts. We found that, while knowledge sharing from colleagues supported learning, the ability to remove cues indicating GenAI use was perceived as validation of domain expertise. These behaviours ultimately reduced opportunities for learning via knowledge sharing and undermined transparency. To advance workplace AI literacy, we argue for fostering open dialogue, increasing visibility of user-generated knowledge, and greater emphasis on the benefits of collaborative learning for navigating rapid technological developments.
- Abstract(参考訳): ジェネレーティブAI(GenAI)ツールは、知識労働を急速に変革し、AIリテラシーを組織にとって重要な優先事項にしている。
しかし、AIリテラシーの研究は、GenAIリテラシーに関する知識労働者の信念が職場の社会的ダイナミクスによってどのように形成されているか、そして労働者がこれらの環境にGenAIツールを適用することを学ぶ方法についての実証的な洞察を欠いている。
このギャップに対処するため,さまざまな分野の知識労働者19名を対象に,現実の専門的文脈におけるGenAI能力の育成について,詳細なインタビューを行った。
我々は、同僚の知識共有が学習を支援する一方で、GenAIの使用を示す手がかりを除去する能力は、ドメインの専門知識の検証であると認識された。
これらの行動は最終的には知識共有による学習機会を減らし、透明性を損なうことになった。
職場におけるAIリテラシーを向上するために,オープンな対話の促進,ユーザ生成知識の可視化の向上,そして,迅速な技術開発をナビゲートするための協調学習のメリットの強調を論じる。
関連論文リスト
- A Community-driven vision for a new Knowledge Resource for AI [54.6699845861346]
WordNetのような知識リソースの成功にもかかわらず、検証可能な汎用的な知識ソースは、AIインフラストラクチャにおいて重要な欠陥である。
本稿では,この知見を要約し,新しい知識基盤に向けたコミュニティ主導のビジョンを概説する。
論文 参考訳(メタデータ) (2025-06-19T20:51:28Z) - "We need to avail ourselves of GenAI to enhance knowledge distribution": Empowering Older Adults through GenAI Literacy [0.49157446832511503]
高齢の成人はしばしば、新興技術の採用に関するより大きな予約を示す。
本研究では,GenAIリテラシーを高齢者に提供するための戦略を検討する。
定量的データは、AIリテラシーの改善傾向を示しているが、統計的には重要ではなかった。
論文 参考訳(メタデータ) (2025-06-06T16:38:37Z) - Reflection on Data Storytelling Tools in the Generative AI Era from the Human-AI Collaboration Perspective [54.152639172274]
大規模生成AI技術は、ビジュアルおよびナレーション生成におけるそのパワーでデータストーリーテリングを強化する可能性がある。
我々は、最新のツールのコラボレーションパターンを、データストーリーテリングにおける人間とAIのコラボレーションを理解するための専用のフレームワークを使用して、以前のツールのパターンと比較する。
これらのAIテクニックのメリットと、人間とAIのコラボレーションへの影響も明らかにされている。
論文 参考訳(メタデータ) (2025-03-04T13:56:18Z) - Lessons for GenAI Literacy From a Field Study of Human-GenAI Augmentation in the Workplace [0.11704154007740832]
本研究では、製品開発、ソフトウェアエンジニアリング、デジタルコンテンツ作成という3つの機能にまたがるGenAIの使用を比較した。
発見は、GenAIの使用とユーザのコンピューティング知識のレベルにおいて、幅広いばらつきを示している。
論文 参考訳(メタデータ) (2025-02-01T21:26:31Z) - Not a Swiss Army Knife: Academics' Perceptions of Trade-Offs Around Generative Artificial Intelligence Use [12.85888736626468]
我々は、教員や学生を含む17人の知識労働者にインタビューを行い、生成AI(Gen AI)の社会的・技術的側面について調査した。
参加者は、Gen AIのトレーニングに使用されるデータの不透明さに関する懸念を提起しました。
参加者は、学習プロセスを加速し、アクセス可能な研究アシスタントとして機能することで、Gen AIが知識を民主化する可能性を認識した。
論文 参考訳(メタデータ) (2024-05-02T04:25:35Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - AutoML in The Wild: Obstacles, Workarounds, and Expectations [37.813441975457735]
本研究は,現実の実践においてユーザが遭遇するAutoMLの限界を理解することに焦点を当てる。
その結果,カスタマイズ性,透明性,プライバシーから生じる3つの大きな課題を克服するために,ユーザエージェンシーを積極的に実施していることが判明した。
論文 参考訳(メタデータ) (2023-02-21T17:06:46Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。