論文の概要: Fingerprinting AI Coding Agents on GitHub
- arxiv url: http://arxiv.org/abs/2601.17406v1
- Date: Sat, 24 Jan 2026 10:35:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:07.716865
- Title: Fingerprinting AI Coding Agents on GitHub
- Title(参考訳): GitHubでAIコーディングエージェントをフィンガープリント
- Authors: Taher A. Ghaleb,
- Abstract要約: 我々は,5つの主要エージェントからの33,580のプルリクエストを分析し,指紋認証AI符号化エージェントに関する最初の研究を行った。
コミットメッセージ、PR構造、コード特性にまたがる41の機能は、マルチクラスのエージェント識別において97.2%のF1スコアを達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI coding agents are reshaping software development through both autonomous and human-mediated pull requests (PRs). When developers use AI agents to generate code under their own accounts, code authorship attribution becomes critical for repository governance, research validity, and understanding modern development practices. We present the first study on fingerprinting AI coding agents, analyzing 33,580 PRs from five major agents (OpenAI Codex, GitHub Copilot, Devin, Cursor, Claude Code) to identify behavioral signatures. With 41 features spanning commit messages, PR structure, and code characteristics, we achieve 97.2% F1-score in multi-class agent identification. We uncover distinct fingerprints: Codex shows unique multiline commit patterns (67.5% feature importance), and Claude Code exhibits distinctive code structure (27.2% importance of conditional statements). These signatures reveal that AI coding tools produce detectable behavioral patterns, suggesting potential for identifying AI contributions in software repositories.
- Abstract(参考訳): AIコーディングエージェントは、自律的および人間によるプルリクエスト(PR)を通じて、ソフトウェア開発を再構築している。
開発者が自身のアカウント下でコードを生成するためにAIエージェントを使用する場合、コードオーサシップの属性は、リポジトリのガバナンス、研究の妥当性、モダンな開発プラクティスを理解する上で重要になる。
我々は,5つの主要なエージェント(OpenAI Codex, GitHub Copilot, Devin, Cursor, Claude Code)から33,580のPRを分析し,行動シグネチャを識別する。
コミットメッセージ、PR構造、コード特性にまたがる41の機能は、マルチクラスのエージェント識別において97.2%のF1スコアを達成する。
Codexにはユニークなマルチラインコミットパターン(67.5%が重要な機能)があり、Claude Codeには独自のコード構造(27.2%が条件文)がある。
これらの署名は、AIコーディングツールが検出可能な行動パターンを生成し、ソフトウェアリポジトリにおけるAIコントリビューションを特定する可能性を示唆している。
関連論文リスト
- On Autopilot? An Empirical Study of Human-AI Teaming and Review Practices in Open Source [11.412808537439973]
プロジェクトレベルのガイドラインとAI支援プルリクエスト(PR)との開発者のインタラクションについて検討した。
AIが共著するPRの67.5%以上が、コードオーナシップのないコントリビュータから生まれています。
非オーナーの開発者が最もフィードバックを受けられるような、人間が作ったPRとは対照的に、非オーナーのAI共著のPRは最小限のフィードバックを受け取っている。
論文 参考訳(メタデータ) (2026-01-20T09:09:53Z) - On the Use of Agentic Coding: An Empirical Study of Pull Requests on GitHub [6.7302091035327285]
大規模言語モデル(LLM)は、ソフトウェア開発プロセスに統合されつつある。
自律的なAIエージェントを使用して、コードを生成し、人間の介入を最小限に抑えたプルリクエストを提出する能力は、標準のプラクティスになる可能性がある。
エージェントコーディングツールであるClaude Codeを使って生成した567のGitHubプルリクエスト(PR)を、157のオープンソースプロジェクトで実証研究しました。
論文 参考訳(メタデータ) (2025-09-18T08:48:32Z) - Cognitive Kernel-Pro: A Framework for Deep Research Agents and Agent Foundation Models Training [67.895981259683]
汎用AIエージェントは、次世代人工知能の基礎となるフレームワークとして、ますます認識されている。
現在のエージェントシステムはクローズドソースか、さまざまな有料APIやプロプライエタリなツールに大きく依存している。
我々は,完全オープンソースかつ(最大限に)フリーなマルチモジュールエージェントフレームワークであるCognitive Kernel-Proを提案する。
論文 参考訳(メタデータ) (2025-08-01T08:11:31Z) - The Rise of AI Teammates in Software Engineering (SE) 3.0: How Autonomous Coding Agents Are Reshaping Software Engineering [10.252332355171237]
本稿では,このようなエージェントが野生でどのように動作するかを示す最初の大規模データセットであるAIDevを紹介する。
AIDevは5つの主要なエージェントによる45万6000件以上のプルリクエストに対処し、ソフトウェア開発において自律的なチームメイトを研究するための前例のない経験的な基盤を提供する。
データセットには、PR、著者、レビュータイムライン、コード変更、統合結果に関する豊富な情報が含まれている。
論文 参考訳(メタデータ) (2025-07-20T15:15:58Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - On Developers' Self-Declaration of AI-Generated Code: An Analysis of Practices [2.205621813527632]
この研究は、開発者がAI生成コードの自己宣言に使用する方法を理解することを目的としている。
第1フェーズでは、GitHubからAI生成コードスニペットの613のインスタンスを収集しました。
第2フェーズでは,フォローアップ実践者の調査を行い,有効回答は111件であった。
論文 参考訳(メタデータ) (2025-04-23T07:52:39Z) - RedCode: Risky Code Execution and Generation Benchmark for Code Agents [50.81206098588923]
RedCodeはリスクの高いコード実行と生成のためのベンチマークである。
RedCode-Execは、危険なコード実行につながる可能性のある、挑戦的なプロンプトを提供する。
RedCode-Genは160のプロンプトに関数シグネチャとドキュメントを入力として提供し、コードエージェントが命令に従うかどうかを評価する。
論文 参考訳(メタデータ) (2024-11-12T13:30:06Z) - Generation Probabilities Are Not Enough: Uncertainty Highlighting in AI Code Completions [54.55334589363247]
本研究では,不確実性に関する情報を伝達することで,プログラマがより迅速かつ正確にコードを生成することができるかどうかを検討する。
トークンのハイライトは、編集される可能性が最も高いので、タスクの完了が早くなり、よりターゲットを絞った編集が可能になることがわかりました。
論文 参考訳(メタデータ) (2023-02-14T18:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。