論文の概要: More code, less validation: Risk factors for over-reliance on AI coding tools among scientists
- arxiv url: http://arxiv.org/abs/2512.19644v1
- Date: Mon, 22 Dec 2025 18:17:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.874344
- Title: More code, less validation: Risk factors for over-reliance on AI coding tools among scientists
- Title(参考訳): さらなるコード、検証の削減:科学者間のAIコーディングツールへの過度な信頼のリスク要因
- Authors: Gabrielle O'Brien, Alexis Parker, Nasir Eisty, Jeffrey Carver,
- Abstract要約: コード生成が可能な生成AIツールは、科学プログラマをサポートする可能性があるが、ユーザリサーチは、過度な信頼のリスクを示している。
採用パターン,ツールの嗜好,生産性の認知に関連する要因をプログラムし,調査した868名の科学者を対象に調査を行った。
- 参考スコア(独自算出の注目度): 3.5398689122254763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Programming is essential to modern scientific research, yet most scientists report inadequate training for the software development their work demands. Generative AI tools capable of code generation may support scientific programmers, but user studies indicate risks of over-reliance, particularly among inexperienced users. We surveyed 868 scientists who program, examining adoption patterns, tool preferences, and factors associated with perceived productivity. Adoption is highest among students and less experienced programmers, with variation across fields. Scientific programmers overwhelmingly prefer general-purpose conversational interfaces like ChatGPT over developer-specific tools. Both inexperience and limited use of development practices (like testing, code review, and version control) are associated with greater perceived productivity-but these factors interact, suggesting formal practices may partially compensate for inexperience. The strongest predictor of perceived productivity is the number of lines of generated code typically accepted at once. These findings suggest scientific programmers using generative AI may gauge productivity by code generation rather than validation, raising concerns about research code integrity.
- Abstract(参考訳): 現代の科学研究にはプログラミングが不可欠だが、ほとんどの科学者は、ソフトウェア開発に必要なトレーニングが不十分であると報告している。
コード生成が可能な生成AIツールは、科学プログラマをサポートする可能性があるが、ユーザー研究は、特に経験の浅いユーザーの間で、過度な信頼のリスクを示している。
採用パターン,ツールの嗜好,生産性の認知に関連する要因をプログラムし,調査した868名の科学者を対象に調査を行った。
採用率が最も高く、経験の浅いプログラマで、分野によって異なる。
科学プログラマーは、開発者固有のツールよりも、ChatGPTのような汎用的な会話インターフェイスを圧倒的に好んでいる。
不経験と限定された開発プラクティス(テスト、コードレビュー、バージョン管理など)の両方が、生産性の向上に結びついているが、これらの要因は相互作用し、形式的なプラクティスが部分的に経験不足を補う可能性があることを示唆している。
生産性に対する最も強い予測は、通常一度に受け入れられる生成コードの行数である。
これらの結果は、生成AIを使用する科学プログラマは、検証よりもコード生成によって生産性を計測し、研究コードの完全性に関する懸念を提起する可能性があることを示唆している。
関連論文リスト
- Prompting in Practice: Investigating Software Developers' Use of Generative AI Tools [17.926187565860232]
生成人工知能(GenAI)ツールの統合は、ソフトウェア開発を根本的に変えた。
本研究は,ソフトウェア技術者がGenAIツールをプロフェッショナルな実践に統合する方法について,体系的な調査を行ったものである。
我々は、開発プロセス全体でAIの使用パターンを理解するために、アクティブなGenAIユーザ72人を含む91人のソフトウェアエンジニアを調査した。
論文 参考訳(メタデータ) (2025-10-07T15:02:22Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - How Scientists Use Large Language Models to Program [0.0]
コード生成モデルの初期アドプタである科学者の特性について検討する。
科学者たちは、よく知らないプログラミング言語やライブラリをナビゲートするための情報検索ツールとして、コード生成モデルを使っている。
論文 参考訳(メタデータ) (2025-02-24T17:23:12Z) - Exploring Code Comprehension in Scientific Programming: Preliminary Insights from Research Scientists [6.2329239454115415]
本研究では、さまざまな分野の57人の科学者を対象に、コード可読性に関して直面するプログラミングの背景、実践、課題について調査する。
科学者は主にPythonとRを使用し、可読性に関するドキュメントに依存している。
以上の結果から,コード品質ツールの採用率の低下と,コード品質を改善するために大規模言語モデルを活用する傾向が示唆された。
論文 参考訳(メタデータ) (2025-01-17T08:47:29Z) - CONCORD: Clone-aware Contrastive Learning for Source Code [64.51161487524436]
セルフ教師付き事前トレーニングは、多くのダウンストリームSEタスクに価値のあるジェネリックコード表現を学ぶための牽引役になった。
汎用的な表現学習のために、開発者が日々どのようにコードをコーディングするかは、要因としても不可欠である、と私たちは主張する。
特に,表現空間に良性クローンを近づける自己教師型コントラスト学習戦略であるCONCORDを提案する。
論文 参考訳(メタデータ) (2023-06-05T20:39:08Z) - Comparing Software Developers with ChatGPT: An Empirical Investigation [0.0]
本稿では,ChatGPTのようなソフトウェア技術者やAIシステムのパフォーマンスを,さまざまな評価指標で比較した実証的研究を行う。
この論文は、さまざまな評価基準を考慮して、ソフトウェアエンジニアとAIベースのソリューションの包括的な比較が、人間と機械のコラボレーションを促進する上で重要であることを示唆している。
論文 参考訳(メタデータ) (2023-05-19T17:25:54Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。