論文の概要: How AI Impacts Skill Formation
- arxiv url: http://arxiv.org/abs/2601.20245v2
- Date: Sun, 01 Feb 2026 05:05:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 15:03:50.684273
- Title: How AI Impacts Skill Formation
- Title(参考訳): AIがスキル形成にどのように影響するか
- Authors: Judy Hanwen Shen, Alex Tamkin,
- Abstract要約: 我々は、開発者がAIの助けなしに新しい非同期プログラミングライブラリを習得した方法について研究する。
AIは概念的理解、コード読み込み、デバッグ能力に障害があるが、平均的な効率性は得られない。
我々は6つの異なるAIインタラクションパターンを特定し、そのうち3つは認知的エンゲージメントと学習結果の保存を含む。
- 参考スコア(独自算出の注目度): 12.295096074858932
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI assistance produces significant productivity gains across professional domains, particularly for novice workers. Yet how this assistance affects the development of skills required to effectively supervise AI remains unclear. Novice workers who rely heavily on AI to complete unfamiliar tasks may compromise their own skill acquisition in the process. We conduct randomized experiments to study how developers gained mastery of a new asynchronous programming library with and without the assistance of AI. We find that AI use impairs conceptual understanding, code reading, and debugging abilities, without delivering significant efficiency gains on average. Participants who fully delegated coding tasks showed some productivity improvements, but at the cost of learning the library. We identify six distinct AI interaction patterns, three of which involve cognitive engagement and preserve learning outcomes even when participants receive AI assistance. Our findings suggest that AI-enhanced productivity is not a shortcut to competence and AI assistance should be carefully adopted into workflows to preserve skill formation -- particularly in safety-critical domains.
- Abstract(参考訳): AIアシストは、特に初心者労働者にとって、プロのドメイン間で大きな生産性向上をもたらす。
しかし、この支援がAIを効果的に監督するために必要なスキルの開発にどのように影響するかは、まだ不明である。
未知のタスクを完了するためにAIに大きく依存している初心者労働者は、そのプロセスにおける自身のスキル獲得を損なう可能性がある。
ランダムな実験を行い、開発者がAIの助けなしに新しい非同期プログラミングライブラリを習得する方法を研究します。
AIは概念的理解、コード読み込み、デバッグ能力に障害があるが、平均的な効率性は得られない。
コーディングタスクを完全に委譲した参加者は生産性が向上したが、ライブラリを学習するコストは高い。
我々は6つの異なるAIインタラクションパターンを特定し、そのうち3つは認知的エンゲージメントと学習結果の保存を含む。
我々の調査結果は、AIによって強化された生産性は能力のショートカットではないことを示唆し、特に安全クリティカルなドメインにおいて、AIアシストはスキル形成を維持するワークフローに慎重に採用されるべきである。
関連論文リスト
- AI as Cognitive Amplifier: Rethinking Human Judgment in the Age of Generative AI [0.65268245109828]
私はAIエンゲージメントの3段階モデルを提案します。
レベル間の移行には技術トレーニングではなく、ドメインの専門知識とメタ認知スキルの開発が必要だ、と私は主張します。
論文 参考訳(メタデータ) (2025-10-30T11:55:34Z) - Efficiency Without Cognitive Change: Evidence from Human Interaction with Narrow AI Systems [0.0]
狭義のAIツールへの短期的な露出は、コア認知能力を高める。
問題解決や言語理解の標準化には、ポスト前の大きな違いは現れなかった。
論文 参考訳(メタデータ) (2025-10-28T18:55:44Z) - The SPACE of AI: Real-World Lessons on AI's Impact on Developers [0.807084206814932]
我々は,SPACEフレームワークの次元にまたがるAIの影響,すなわち満足度,パフォーマンス,アクティビティ,コラボレーション,効率を,開発者がどのように認識するかを研究する。
AIは広く採用されており、生産性の向上、特にルーチンタスクに広く見なされている。
開発者の報告によると、効率性と満足度は向上し、コラボレーションへの影響の証拠は少なくなった。
論文 参考訳(メタデータ) (2025-07-31T21:45:54Z) - From Teacher to Colleague: How Coding Experience Shapes Developer Perceptions of AI Tools [0.0]
AI支援の開発ツールは生産性の向上とコード品質の向上を約束するが、開発者による採用は相容れない。
我々は、3380人の開発者による調査データを分析し、コーディングエクスペリエンスがAIの認識、採用、開発者がワークフローでAIに割り当てる役割にどのように関係しているかを調べます。
論文 参考訳(メタデータ) (2025-04-08T08:58:06Z) - Human-AI Collaborative Game Testing with Vision Language Models [0.0]
本研究では,AI支援ワークフローの開発と実験により,AIがゲームテストを改善する方法について検討する。
我々は、AIサポートの有無、欠陥や設計資料の詳細な知識の有無の4つの条件下で、AIアシストの有効性を評価する。
その結果、特に詳細な知識と組み合わせた場合、AIアシストは欠陥識別性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-01-20T23:14:23Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。