論文の概要: The Impact of Generative AI on Code Expertise Models: An Exploratory Study
- arxiv url: http://arxiv.org/abs/2507.08160v1
- Date: Thu, 10 Jul 2025 20:43:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.169571
- Title: The Impact of Generative AI on Code Expertise Models: An Exploratory Study
- Title(参考訳): 生成AIがコードエキスパートモデルに及ぼす影響:探索的研究
- Authors: Otávio Cury, Guilherme Avelino,
- Abstract要約: 本稿では、知識モデルとトラックファクターアルゴリズムがGenAIの利用によってどのように影響するかを探索分析する。
この結果から,GenAIが開発に深く統合されるにつれ,これらの指標の信頼性が低下する可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative Artificial Intelligence (GenAI) tools for source code generation have significantly boosted productivity in software development. However, they also raise concerns, particularly the risk that developers may rely heavily on these tools, reducing their understanding of the generated code. We hypothesize that this loss of understanding may be reflected in source code knowledge models, which are used to identify developer expertise. In this work, we present an exploratory analysis of how a knowledge model and a Truck Factor algorithm built upon it can be affected by GenAI usage. To investigate this, we collected statistical data on the integration of ChatGPT-generated code into GitHub projects and simulated various scenarios by adjusting the degree of GenAI contribution. Our findings reveal that most scenarios led to measurable impacts, indicating the sensitivity of current expertise metrics. This suggests that as GenAI becomes more integrated into development workflows, the reliability of such metrics may decrease.
- Abstract(参考訳): ソースコード生成のための生成人工知能(GenAI)ツールは、ソフトウェア開発の生産性を大幅に向上させた。
しかし、特に開発者がこれらのツールに大きく依存するリスクを懸念し、生成されたコードに対する理解が低下する。
この理解の喪失は、開発者の専門知識を特定するために使用されるソースコード知識モデルに反映される可能性がある、という仮説を立てる。
本稿では,知識モデルとその上に構築されたトラックファクターアルゴリズムがGenAIの利用によってどのように影響するかを探索的に分析する。
そこで我々は,ChatGPT生成コードのGitHubプロジェクトへの統合に関する統計データを収集し,GenAIコントリビューションの度合いを調整することで,さまざまなシナリオをシミュレートした。
その結果,ほとんどのシナリオが測定可能な影響をもたらし,現在の専門的指標の感度が示唆された。
これは、GenAIが開発ワークフローに統合されるにつれて、そのようなメトリクスの信頼性が低下する可能性を示唆している。
関連論文リスト
- Self-Admitted GenAI Usage in Open-Source Software [14.503048663131574]
我々は、開発者がソフトウェアアーティファクトのコンテンツ作成にGenAIツールを使うことを明示的に言及する、自称GenAI利用の概念を紹介した。
我々は25万以上のGitHubリポジトリのキュレートされたサンプルを分析し、コミットメッセージ、コードコメント、プロジェクトドキュメントで156リポジトリにまたがる1292の自己承認を識別した。
我々の調査によると、開発者はプロジェクトにおいてGenAIがどのように使われているのかを積極的に管理し、プロジェクトレベルの透明性の必要性を強調しています。
論文 参考訳(メタデータ) (2025-07-14T16:05:49Z) - What Needs Attention? Prioritizing Drivers of Developers' Trust and Adoption of Generative AI [18.1243411839447]
我々は、GenAIに対する信頼と養子縁組の意図に影響を与える要因の理論モデルを開発した。
我々は,genAIのシステム/アウトプットの品質,機能的価値,目標維持が開発者の信頼に大きく影響していることを発見した。
我々は,人間とAIのインタラクションを効果的かつ信頼性が高く,包括的に行うために,今後のgenAIツール設計を導くための提案を行う。
論文 参考訳(メタデータ) (2025-05-23T03:05:56Z) - Information Retrieval in the Age of Generative AI: The RGB Model [77.96475639967431]
本稿では,生成型AIツールの利用の増加に伴って生じる複雑な情報ダイナミクスについて,新たな定量的アプローチを提案する。
本稿では,新たなトピックに応答して情報の生成,索引付け,普及を特徴付けるモデルを提案する。
以上の結果から,AI導入の急激なペースとユーザ依存度の増加は,不正確な情報拡散のリスクを増大させる可能性が示唆された。
論文 参考訳(メタデータ) (2025-04-29T10:21:40Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - SOK: Exploring Hallucinations and Security Risks in AI-Assisted Software Development with Insights for LLM Deployment [0.0]
GitHub Copilot、ChatGPT、Cursor AI、Codeium AIといった大規模言語モデル(LLM)は、コーディングの世界に革命をもたらした。
本稿では,AIを利用したコーディングツールのメリットとリスクを包括的に分析する。
論文 参考訳(メタデータ) (2025-01-31T06:00:27Z) - Dear Diary: A randomized controlled trial of Generative AI coding tools in the workplace [2.5280615594444567]
ジェネレーティブAIコーディングツールは比較的新しいもので、開発者への影響は従来のコーディングメトリクスを超えて拡大している。
本研究の目的は、生成型AIツールに関する既存の信念、自己認識、そしてこれらのツールの定期的な使用がこれらの信念をどう変えるかを明らかにすることである。
その結果,ジェネレーティブなAIコーディングツールの導入と持続的使用は,これらのツールが有用かつ楽しいものであるという開発者の認識を著しく高めていることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-24T00:07:27Z) - Risks and Opportunities of Open-Source Generative AI [64.86989162783648]
Generative AI(Gen AI)の応用は、科学や医学、教育など、さまざまな分野に革命をもたらすことが期待されている。
こうした地震の変化の可能性は、この技術の潜在的なリスクについて活発に議論を巻き起こし、より厳格な規制を要求した。
この規制は、オープンソースの生成AIの誕生する分野を危険にさらす可能性がある。
論文 参考訳(メタデータ) (2024-05-14T13:37:36Z) - Legal Aspects for Software Developers Interested in Generative AI Applications [5.772982243103395]
生成人工知能(GenAI)は、高品質なコード、自然言語、画像を生成する新しい技術を生み出している。
次のステップはGenAI技術を製品に統合することです。
この記事では、データ保護と著作権という2つのリスクの現状について光を当てます。
論文 参考訳(メタデータ) (2024-04-25T14:17:34Z) - Generative AI Agent for Next-Generation MIMO Design: Fundamentals, Challenges, and Vision [76.4345564864002]
次世代の多重入力多重出力(MIMO)はインテリジェントでスケーラブルであることが期待される。
本稿では、カスタマイズされた特殊コンテンツを生成することができる生成型AIエージェントの概念を提案する。
本稿では、生成AIエージェントをパフォーマンス分析に活用することの有効性を示す2つの説得力のあるケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-13T02:39:36Z) - GenLens: A Systematic Evaluation of Visual GenAI Model Outputs [33.93591473459988]
GenLensは、GenAIモデル出力の体系的評価のために設計されたビジュアル分析インタフェースである。
モデル開発者によるユーザ調査によると、GenLensは、高い満足度で証明されたワークフローを効果的に強化する。
論文 参考訳(メタデータ) (2024-02-06T04:41:06Z) - LLM-based Interaction for Content Generation: A Case Study on the
Perception of Employees in an IT department [85.1523466539595]
本稿では,IT企業の従業員が生成ツールを使用する意図を明らかにするためのアンケート調査を行う。
以上の結果から, 生成ツールの比較的平均的な受容性が示唆されるが, ツールが有用であると認識されるほど, 意図が高くなることが示唆された。
分析の結果, 生産ツールの利用頻度は, 従業員が作業の文脈でこれらのツールをどのように認識しているかを理解する上で重要な要因である可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-18T15:35:43Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。