論文の概要: From Teacher to Colleague: How Coding Experience Shapes Developer Perceptions of AI Tools
- arxiv url: http://arxiv.org/abs/2504.13903v1
- Date: Tue, 08 Apr 2025 08:58:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:52.651287
- Title: From Teacher to Colleague: How Coding Experience Shapes Developer Perceptions of AI Tools
- Title(参考訳): 教師からコリーグへ - コーディング体験がAIツールの開発者認識をいかに形作るか
- Authors: Ilya Zakharov, Ekaterina Koshchenko, Agnia Sergeyuk,
- Abstract要約: AI支援の開発ツールは生産性の向上とコード品質の向上を約束するが、開発者による採用は相容れない。
我々は、3380人の開発者による調査データを分析し、コーディングエクスペリエンスがAIの認識、採用、開発者がワークフローでAIに割り当てる役割にどのように関係しているかを調べます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI-assisted development tools promise productivity gains and improved code quality, yet their adoption among developers remains inconsistent. Prior research suggests that professional expertise influences technology adoption, but its role in shaping developers' perceptions of AI tools is unclear. We analyze survey data from 3380 developers to examine how coding experience relates to AI awareness, adoption, and the roles developers assign to AI in their workflow. Our findings reveal that coding experience does not predict AI adoption but significantly influences mental models of AI's role. Experienced developers are more likely to perceive AI as a junior colleague, a content generator, or assign it no role, whereas less experienced developers primarily view AI as a teacher. These insights suggest that AI tools must align with developers' expertise levels to drive meaningful adoption.
- Abstract(参考訳): AI支援の開発ツールは生産性の向上とコード品質の向上を約束するが、開発者による採用は相容れない。
以前の研究は、専門的な専門知識が技術採用に影響を与えることを示唆しているが、AIツールに対する開発者の認識を形作る役割は明確ではない。
我々は、3380人の開発者による調査データを分析し、コーディングエクスペリエンスがAIの認識、採用、開発者がワークフローでAIに割り当てる役割にどのように関係しているかを調べます。
この結果から,コーディング経験はAI導入を予測せず,AIの役割の精神モデルに大きな影響を及ぼすことが明らかとなった。
経験豊富な開発者は、若い同僚やコンテンツジェネレータとしてAIを知覚し、役割を果たさない傾向にあるが、経験の浅い開発者は、主にAIを教師として見ている。
これらの洞察は、AIツールは、有意義な採用を促進するために、開発者の専門レベルに合わせる必要があることを示唆している。
関連論文リスト
- On Developers' Self-Declaration of AI-Generated Code: An Analysis of Practices [2.655152359733829]
この研究は、開発者がAI生成コードの自己宣言に使用する方法を理解することを目的としている。
私たちはGitHubからAI生成コードスニペットの613のインスタンスを収集しました。
私たちの研究は、開発者がAI生成コードを自己宣言するプラクティスを明らかにしました。
論文 参考訳(メタデータ) (2025-04-23T07:52:39Z) - Do Comments and Expertise Still Matter? An Experiment on Programmers' Adoption of AI-Generated JavaScript Code [8.436321697240682]
AI生成コードの採用は、AI生成ソリューションと参加者が提出したソリューションのコード類似性によって評価された。
その結果,コメントの存在は,参加者の開発専門知識に関わらず,プログラマのAI生成コードの採用に大きく影響していることがわかった。
論文 参考訳(メタデータ) (2025-03-14T14:42:51Z) - Towards Decoding Developer Cognition in the Age of AI Assistants [9.887133861477233]
本稿では,生理的計測(EEGとアイトラッキング)とインタラクションデータを組み合わせて,AI支援プログラミングツールの開発者による使用状況を調べるための制御された観察的研究を提案する。
私たちは、認知負荷とタスク完了時間を計測しながら、AIアシストの有無に関わらず、プログラムタスクを完了させるために、プロの開発者を募集します。
論文 参考訳(メタデータ) (2025-01-05T23:25:21Z) - Does Co-Development with AI Assistants Lead to More Maintainable Code? A Registered Report [6.7428644467224]
本研究は,AIアシスタントがソフトウェア保守性に与える影響を検討することを目的とする。
フェーズ1では、開発者はAIアシスタントの助けなしに、Javaプロジェクトに新しい機能を追加する。
ランダム化されたコントロールされた試行のフェーズ2では、さまざまな開発者がランダムフェーズ1プロジェクトを進化させ、AIアシスタントなしで作業する。
論文 参考訳(メタデータ) (2024-08-20T11:48:42Z) - Using AI-Based Coding Assistants in Practice: State of Affairs, Perceptions, and Ways Forward [9.177785129949]
私たちは、開発者がAIアシスタントをどのように使っているのかをよりよく理解することを目指しています。
我々は、AIアシスタントの使用方法に関する大規模な調査を行った。
論文 参考訳(メタデータ) (2024-06-11T23:10:43Z) - Bootstrapping Developmental AIs: From Simple Competences to Intelligent
Human-Compatible AIs [0.0]
主流のAIアプローチは、大きな言語モデル(LLM)による生成的および深層学習アプローチと、手動で構築されたシンボリックアプローチである。
このポジションペーパーでは、開発AIの実践を拡張して、レジリエンスでインテリジェントで、人間と互換性のあるAIを作り出すための、展望、ギャップ、課題を概説する。
論文 参考訳(メタデータ) (2023-08-08T21:14:21Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。