論文の概要: Evolution of Programmers' Trust in Generative AI Programming Assistants
- arxiv url: http://arxiv.org/abs/2509.13253v1
- Date: Tue, 16 Sep 2025 17:06:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:53.187819
- Title: Evolution of Programmers' Trust in Generative AI Programming Assistants
- Title(参考訳): 生成型AIプログラミングアシスタントにおけるプログラマの信頼の進化
- Authors: Anshul Shah, Thomas Rexin, Elena Tomson, Leo Porter, William G. Griswold, Adalbert Gerald Soosai Raj,
- Abstract要約: 本研究は,GitHub Copilotの即時(1時間),拡張(10日)使用後のプログラマの信頼の進化を理解することを目的としている。
Copilotでプロジェクトを完了した後、学生はCopilotが手作業でタスクを完了するために有能なプログラマを必要としていると感じた。
学生は、Copilotの正しさを見て、Copilotがコードベースからコンテキストをどのように使っているかを理解し、自然言語処理の基礎を学ぶことで、信頼度が向上したと述べた。
- 参考スコア(独自算出の注目度): 2.006647079907382
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Motivation. Trust in generative AI programming assistants is a vital attitude that impacts how programmers use those programming assistants. Programmers that are over-trusting may be too reliant on their tools, leading to incorrect or vulnerable code; programmers that are under-trusting may avoid using tools that can improve their productivity and well-being. Methods. Since trust is a dynamic attitude that may change over time, this study aims to understand programmers' evolution of trust after immediate (one hour) and extended (10 days) use of GitHub Copilot. We collected survey data from 71 upper-division computer science students working on a legacy code base, representing a population that is about to enter the workforce. In this study, we quantitatively measure student trust levels and qualitatively uncover why student trust changes. Findings. Student trust, on average, increased over time. After completing a project with Copilot, however, students felt that Copilot requires a competent programmer to complete some tasks manually. Students mentioned that seeing Copilot's correctness, understanding how Copilot uses context from the code base, and learning some basics of natural language processing contributed to their elevated trust. Implications. Our study helps instructors and industry managers understand the factors that influence how students calibrate their trust with AI assistants. We make four pedagogical recommendations, which are that CS educators should 1) provide opportunities for students to work with Copilot on challenging software engineering tasks to calibrate their trust, 2) teach traditional skills of comprehending, debugging, and testing so students can verify output, 3) teach students about the basics of natural language processing, and 4) explicitly introduce and demonstrate the range of features available in Copilot.
- Abstract(参考訳): モチベーション。
生成的AIプログラミングアシスタントへの信頼は、プログラマがプログラミングアシスタントを使用する方法に影響を与える重要な態度である。
過度に信頼しているプログラマはツールに頼りすぎ、誤ったコードや脆弱なコードに繋がる可能性がある。
メソッド。
信頼は時間とともに変化するかもしれない動的な態度であるので、この研究はプログラマの信頼の進化を理解することを目的としている。
我々は、旧来のコードベースで作業している71人の上級コンピュータサイエンス学生を対象にした調査データを収集した。
本研究では,学生信頼度を定量的に測定し,なぜ学生信頼が変化するのかを質的に明らかにする。
発見。
学生の信頼は、平均して時間とともに増大した。
しかし、Copilotでプロジェクトを完了した後、学生はCopilotが手作業でタスクを完了するために有能なプログラマを必要としていると感じた。
学生は、Copilotの正しさを見て、Copilotがコードベースからコンテキストをどのように使っているかを理解し、自然言語処理の基礎を学ぶことで、信頼度が向上したと述べた。
意味。
我々の研究は、インストラクターや業界管理者が、学生がAIアシスタントで信頼を調整する方法に影響を与える要因を理解するのに役立ちます。
我々は、CS教育者がすべき4つの教育的勧告を行う。
1) 学生がCopilotと協力してソフトウェア工学の課題に挑戦し、信頼を校正する機会を提供する。
2) 学生がアウトプットを検証できるように、理解、デバッグ、テストの伝統的なスキルを教える。
3)自然言語処理の基礎を学生に教える,
4) Copilotで利用可能な機能の範囲を明示的に導入し、デモする。
関連論文リスト
- Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - The Effects of GitHub Copilot on Computing Students' Programming Effectiveness, Efficiency, and Processes in Brownfield Programming Tasks [0.6282171844772422]
GitHub Copilotは、ジェネレーティブ人工知能(GenAI)コーディングアシスタントである。
本稿では,GitHub Copilotが大学生のプログラミングパフォーマンス,行動,理解にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2025-06-11T16:18:53Z) - From Developer Pairs to AI Copilots: A Comparative Study on Knowledge Transfer [8.567835367628787]
AIコーディングアシスタントの台頭により、開発者は人間のパートナーだけでなく、AIペアプログラマーとも仕事をするようになる。
人・人・AI設定の知識伝達を解析するために,実験的検討を行った。
同様の頻度で知識伝達が成功し、両方の設定で話題カテゴリーが重複していることがわかりました。
論文 参考訳(メタデータ) (2025-06-05T09:13:30Z) - "It's Weird That it Knows What I Want": Usability and Interactions with
Copilot for Novice Programmers [5.317693153442043]
本稿では,このようなコード自動生成ツールであるGithub Copilotを用いて,学生を入門レベルで観察する最初の研究について述べる。
我々は,この技術の学習におけるメリットと落とし穴に対する学生の認識を探求し,新たに観察された相互作用パターンを提示し,学生が直面する認知的・メタ認知的困難を議論する。
論文 参考訳(メタデータ) (2023-04-05T15:07:50Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Giving Feedback on Interactive Student Programs with Meta-Exploration [74.5597783609281]
ウェブサイトやゲームのようなインタラクティブなソフトウェアを開発することは、特にコンピュータ科学を学ぶための魅力的な方法である。
標準的アプローチでは、インストラクターは、学生が実装した対話型プログラムを手動で評価する必要がある。
Code.orgのような何百万ものオンラインプラットフォームは、インタラクティブなプログラムを実装するための代入に関するフィードバックを提供することができない。
論文 参考訳(メタデータ) (2022-11-16T10:00:23Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。