論文の概要: Code for Machines, Not Just Humans: Quantifying AI-Friendliness with Code Health Metrics
- arxiv url: http://arxiv.org/abs/2601.02200v1
- Date: Mon, 05 Jan 2026 15:23:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.240128
- Title: Code for Machines, Not Just Humans: Quantifying AI-Friendliness with Code Health Metrics
- Title(参考訳): 人間ではなく機械のためのコード - コードヘルスメトリクスによるAIフレンドリ性の定量化
- Authors: Markus Borg, Nadim Hagatulah, Adam Tornhill, Emma Söderberg,
- Abstract要約: 我々は、競合プログラミングから5,000のPythonファイルのデータセットを通して「AIフレンドリなコード」の概念を調査する。
我々の発見は、人間フレンドリーなコードもAIツールとより互換性があることを確認した。
これらの結果は、組織がCodeHealthを使用して、AI介入のリスクが低い場所と、追加の人間の監視が保証される場所をガイドできることを示唆している。
- 参考スコア(独自算出の注目度): 6.108440460022983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We are entering a hybrid era in which human developers and AI coding agents work in the same codebases. While industry practice has long optimized code for human comprehension, it is increasingly important to ensure that LLMs with different capabilities can edit code reliably. In this study, we investigate the concept of ``AI-friendly code'' via LLM-based refactoring on a dataset of 5,000 Python files from competitive programming. We find a meaningful association between CodeHealth, a quality metric calibrated for human comprehension, and semantic preservation after AI refactoring. Our findings confirm that human-friendly code is also more compatible with AI tooling. These results suggest that organizations can use CodeHealth to guide where AI interventions are lower risk and where additional human oversight is warranted. Investing in maintainability not only helps humans; it also prepares for large-scale AI adoption.
- Abstract(参考訳): 私たちは、人間開発者とAIコーディングエージェントが同じコードベースで作業するハイブリッド時代に入りました。
産業の実践は人間の理解のために長い間最適化されてきたが、異なる能力を持つLLMが確実にコードを編集できることはますます重要になっている。
本研究では, 競合プログラミングから5,000のPythonファイルのデータセット上で, LLMをベースとしたリファクタリングによる‘AIフレンドリなコード’の概念について検討する。
我々は,人間の理解度を基準とした品質基準であるCodeHealthと,AIリファクタリング後の意味的保存との間に有意義な関連性を見出した。
我々の発見は、人間フレンドリーなコードもAIツールとより互換性があることを確認した。
これらの結果は、組織がCodeHealthを使用して、AI介入のリスクが低い場所と、追加の人間の監視が保証される場所をガイドできることを示唆している。
保守性への投資は、人間を助けるだけでなく、大規模なAI導入の準備も行う。
関連論文リスト
- AI Code in the Wild: Measuring Security Risks and Ecosystem Shifts of AI-Generated Code in Modern Software [12.708926174194199]
野生におけるAI生成コード(AIGCode)の大規模な実証的研究について紹介する。
我々はAIGCodeと人書きコードとを区別するための高精度検出パイプラインとベンチマークを構築した。
これにより、コミット、ファイル、関数を人間/AI軸に沿ってラベル付けし、AIGCodeがプロジェクトや脆弱性ライフサイクルをどう移動するかを追跡することができます。
論文 参考訳(メタデータ) (2025-12-21T02:26:29Z) - Human-Written vs. AI-Generated Code: A Large-Scale Study of Defects, Vulnerabilities, and Complexity [4.478789600295493]
本稿では,人間の開発者と最先端のLLMであるChatGPT,DeepSeek-Coder,Qwen-Coderの3つのコードを比較した。
我々の評価は、PythonとJavaの2つの広く使われている言語で500万以上のコードサンプルにまたがっており、Orthogonal Defect ClassificationとCommon Weaknessionを使ったセキュリティ脆弱性によって欠陥を分類している。
AI生成コードは一般的にシンプルで、未使用のコンストラクトやハードコードになりがちであるのに対して、人間書きのコードはより構造的な複雑さを示し、保守性の問題の集中度が高い。
論文 参考訳(メタデータ) (2025-08-29T13:51:28Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - Bridging LLM-Generated Code and Requirements: Reverse Generation technique and SBC Metric for Developer Insights [0.0]
本稿では,SBCスコアと呼ばれる新しいスコアリング機構を提案する。
これは、大規模言語モデルの自然言語生成能力を活用するリバースジェネレーション技術に基づいている。
直接コード解析とは異なり、我々のアプローチはAI生成コードからシステム要求を再構築し、元の仕様と比較する。
論文 参考訳(メタデータ) (2025-02-11T01:12:11Z) - AIGCodeSet: A New Annotated Dataset for AI Generated Code Detection [0.0]
AIGCodeSetは2.828のAI生成コードと4.755の人手によるPythonコードで構成される。
ベイズ分類器が他のモデルより優れていることを示す実験を行った。
論文 参考訳(メタデータ) (2024-12-21T11:53:49Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Assured LLM-Based Software Engineering [51.003878077888686]
この記事では,2024年4月15日にポルトガルのリスボンで開催された International Workshop on Interpretability, Robustness, and Benchmarking in Neural Software Engineering で,Mark Harman 氏による基調講演の内容の概要を紹介する。
論文 参考訳(メタデータ) (2024-02-06T20:38:46Z) - When to Make Exceptions: Exploring Language Models as Accounts of Human
Moral Judgment [96.77970239683475]
AIシステムは人間の道徳的判断や決定を理解し、解釈し、予測しなければなりません。
AIの安全性に対する中心的な課題は、人間の道徳心の柔軟性を捉えることだ。
ルール破りの質問応答からなる新しい課題セットを提案する。
論文 参考訳(メタデータ) (2022-10-04T09:04:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。