論文の概要: Do Comments and Expertise Still Matter? An Experiment on Programmers' Adoption of AI-Generated JavaScript Code
- arxiv url: http://arxiv.org/abs/2503.11453v1
- Date: Fri, 14 Mar 2025 14:42:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:08:38.141305
- Title: Do Comments and Expertise Still Matter? An Experiment on Programmers' Adoption of AI-Generated JavaScript Code
- Title(参考訳): コメントとエキスパートはまだ重要か? プログラマによるAI生成JavaScriptコードの採用実験
- Authors: Changwen Li, Christoph Treude, Ofir Turel,
- Abstract要約: AI生成コードの採用は、AI生成ソリューションと参加者が提出したソリューションのコード類似性によって評価された。
その結果,コメントの存在は,参加者の開発専門知識に関わらず,プログラマのAI生成コードの採用に大きく影響していることがわかった。
- 参考スコア(独自算出の注目度): 8.436321697240682
- License:
- Abstract: This paper investigates the factors influencing programmers' adoption of AI-generated JavaScript code recommendations. It extends prior research by (1) utilizing objective (as opposed to the typically self-reported) measurements for programmers' adoption of AI-generated code and (2) examining whether AI-generated comments added to code recommendations and development expertise drive AI-generated code adoption. We tested these potential drivers in an online experiment with 173 programmers. Participants were asked to answer some questions to demonstrate their level of development expertise. Then, they were asked to solve a LeetCode problem without AI support. After attempting to solve the problem on their own, they received an AI-generated solution to assist them in refining their solutions. The solutions provided were manipulated to include or exclude AI-generated comments (a between-subjects factor). Programmers' adoption of AI-generated code was gauged by code similarity between AI-generated solutions and participants' submitted solutions, providing a more reliable and objective measurement of code adoption behaviors. Our findings revealed that the presence of comments significantly influences programmers' adoption of AI-generated code regardless of the participants' development expertise.
- Abstract(参考訳): 本稿では,プログラマのAI生成JavaScriptコードレコメンデーション導入に影響を与える要因について検討する。
1) プログラマによるAI生成コードの導入に対する客観的な(一般的に報告されている)測定値を活用すること,(2) コードレコメンデーションや開発専門知識に追加されたAI生成コメントが,AI生成コードの採用を促進するかどうかを調べることによって,先行研究を拡張した。
私たちは173人のプログラマによるオンライン実験で、これらの潜在的なドライバをテストしました。
参加者は、開発に関する専門知識のレベルを示すために、いくつかの質問に答えるよう求められた。
その後、AIサポートなしでLeetCodeの問題を解決するように求められた。
この問題を自分で解決しようとした後、彼らはAIが生成したソリューションを受け取り、ソリューションの洗練を支援した。
提供されるソリューションは、AI生成されたコメント(オブジェクト間の要素)を含まないように操作された。
プログラマによるAI生成コードの採用は、AI生成ソリューションと参加者が提出したソリューションのコード類似性によって評価された。
その結果,コメントの存在は,参加者の開発専門知識に関わらず,プログラマのAI生成コードの採用に大きく影響していることがわかった。
関連論文リスト
- How Do Programming Students Use Generative AI? [7.863638253070439]
プログラミングの学生がChatGPTのような生成AIツールを実際にどのように使っているかを検討した。
一般的な概念に関する知識を探り,ソリューションを直接生成する,という2つの一般的な利用戦略を観察した。
その結果,ジェネレーティブAIによるプログラマエージェンシーの潜在的な減少と生産性に関する懸念が正当であることが示唆された。
論文 参考訳(メタデータ) (2025-01-17T10:25:41Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Students' Perspective on AI Code Completion: Benefits and Challenges [2.936007114555107]
学生の視点から,AIコード補完のメリット,課題,期待について検討した。
その結果,AIコード補完は,正しい構文提案を提供することで,学生の生産性と効率を向上させることがわかった。
将来的には、AIコード補完は説明可能であり、教育プロセスを強化するための最高のコーディングプラクティスを提供するべきである。
論文 参考訳(メタデータ) (2023-10-31T22:41:16Z) - Training Towards Critical Use: Learning to Situate AI Predictions
Relative to Human Knowledge [22.21959942886099]
我々は、人間がAIモデルでは利用できない知識に対してAI予測をシチュレートする能力を集中させる「クリティカルユース」と呼ばれるプロセス指向の適切な依存の概念を紹介します。
我々は、児童虐待スクリーニングという複雑な社会的意思決定環境でランダム化オンライン実験を行う。
参加者にAIによる意思決定を実践する、迅速で低い機会を提供することによって、初心者は、経験豊富な労働者に類似したAIとの不一致のパターンを示すようになった。
論文 参考訳(メタデータ) (2023-08-30T01:54:31Z) - Investigating and Designing for Trust in AI-powered Code Generation Tools [15.155301866886647]
私たちは、AIコード生成ツールを適切に信頼する上での彼らの課題を理解するために、開発者にインタビューした。
我々は,開発者の信頼構築プロセスを支援する設計概念を探索する設計調査を行った。
これらの結果から,AIを利用したコード生成ツールの信頼性設計に関する設計勧告が提案されている。
論文 参考訳(メタデータ) (2023-05-18T18:23:51Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - To Trust or to Think: Cognitive Forcing Functions Can Reduce
Overreliance on AI in AI-assisted Decision-making [4.877174544937129]
AIによる意思決定支援ツールによってサポートされる人々は、しばしばAIに過度に依存します。
AIの決定に説明を加えることは、過度な信頼を減らすものではありません。
我々の研究は、人間の認知モチベーションが説明可能なAIソリューションの有効性を損なうことを示唆している。
論文 参考訳(メタデータ) (2021-02-19T00:38:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。