論文の概要: Promises, Perils, and (Timely) Heuristics for Mining Coding Agent Activity
- arxiv url: http://arxiv.org/abs/2601.18345v1
- Date: Mon, 26 Jan 2026 10:34:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.78089
- Title: Promises, Perils, and (Timely) Heuristics for Mining Coding Agent Activity
- Title(参考訳): マイニング・コーディング・エージェント活動のための約束, 義務, および(時間的に)ヒューリスティックス
- Authors: Romain Robes Théo Matricon, Thomas Degueule, Andre Hora, Stefano Zacchiroli,
- Abstract要約: コーディングエージェントは、LLMベースのコード補完とは明らかに異なる方法で、大言語モデル(LLM)を利用する。
LLMベースの補完とは異なり、コーディングエージェントはソフトウェアリポジトリに可視的トレースを残し、MSR技術を使用してSEプラクティスへの影響を研究することができる。
この記事では、GitHubでコーディングエージェントの活動を研究することで収集した約束、危険、危険について述べる。
- 参考スコア(独自算出の注目度): 3.5727010297258732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 2025, coding agents have seen a very rapid adoption. Coding agents leverage Large Language Models (LLMs) in ways that are markedly different from LLM-based code completion, making their study critical. Moreover, unlike LLM-based completion, coding agents leave visible traces in software repositories, enabling the use of MSR techniques to study their impact on SE practices. This paper documents the promises, perils, and heuristics that we have gathered from studying coding agent activity on GitHub.
- Abstract(参考訳): 2025年には、コーディングエージェントが非常に急速に採用されている。
コーディングエージェントは、LLMベースのコード補完と大きく異なる方法で、LLM(Large Language Models)を利用する。
さらに、LLMベースの補完とは異なり、コーディングエージェントはソフトウェアリポジトリに可視的トレースを残し、MSR技術を使用してSEプラクティスへの影響を研究することができる。
この記事では、GitHubにおけるコーディングエージェントアクティビティの研究から収集した、約束、危険、ヒューリスティックスについて述べる。
関連論文リスト
- Agentic Much? Adoption of Coding Agents on GitHub [6.395990525268647]
GitHub上でのコーディングエージェントの採用に関する大規模な研究を初めて紹介する。
採用率は15.85%--22.60%と見積もられているが、これは数ヶ月前の技術では極めて高い。
コミットレベルでは、コーディングエージェントによって支援されるコミットは、人間の開発者によって書かれたコミットよりも大きいことが分かります。
論文 参考訳(メタデータ) (2026-01-26T10:28:10Z) - From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - ObscuraCoder: Powering Efficient Code LM Pre-Training Via Obfuscation Grounding [60.37988508851391]
言語モデル(LM)は、コード記述ツールボックスのベースとなっている。
Code-LMの事前学習目標の変更を探求する研究は、データ効率の向上と構文とセマンティクスの相互接続性の向上を目的としており、顕著に不十分である。
本研究では,Code-LMが表面的な構文を超越し,事前学習したサンプルの効率を高めるために,難読化コードの基盤について検討する。
論文 参考訳(メタデータ) (2025-03-27T23:08:53Z) - A Survey on Large Language Models for Code Generation [9.555952109820392]
大規模言語モデル(LLM)は、様々なコード関連のタスクで顕著な進歩を遂げています。
本調査は、総合的かつ最新の文献レビューを提供することで、学界と実践的発展のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2024-06-01T17:48:15Z) - Automated Commit Message Generation with Large Language Models: An Empirical Study and Beyond [24.151927600694066]
コミットメッセージ生成(CMG)アプローチは、与えられたコード差分に基づいてコミットメッセージを自動的に生成することを目的としている。
本稿では,Large Language Models (LLMs) を用いて高品質なコミットメッセージの生成にどの程度の期間を費やしてきたかを調べるための,最初の包括的な実験を行う。
論文 参考訳(メタデータ) (2024-04-23T08:24:43Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Experiential Co-Learning of Software-Developing Agents [83.34027623428096]
大規模言語モデル(LLM)は、特にソフトウェア開発において、様々な領域に大きな変化をもたらした。
本稿では,新しいLLM学習フレームワークであるExperiential Co-Learningを紹介する。
実験では、このフレームワークにより、エージェントは、目に見えないソフトウェア開発タスクをより効果的に対処できることを示した。
論文 参考訳(メタデータ) (2023-12-28T13:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。