論文の概要: The Quiet Contributions: Insights into AI-Generated Silent Pull Requests
- arxiv url: http://arxiv.org/abs/2601.21102v1
- Date: Wed, 28 Jan 2026 22:43:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.468829
- Title: The Quiet Contributions: Insights into AI-Generated Silent Pull Requests
- Title(参考訳): クイックコントリビューション:AI生成したサイレントプルリクエストに対する洞察
- Authors: S M Mahedy Hasan, Md Fazle Rabbi, Minhaz Zibran,
- Abstract要約: 我々は、AIが生成するプルリクエストが“サイレント”であり、それに伴うコメントや議論がないという、最初の実証的研究を提示する。
我々は、AIDev公開データセットから抽出された人気のあるPythonリポジトリに作成された5つのAIエージェントの4,762のSPRを定量的に研究した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first empirical study of AI-generated pull requests that are 'silent,' meaning no comments or discussions accompany them. This absence of any comments or discussions associated with such silent AI pull requests (SPRs) poses a unique challenge in understanding the rationale for their acceptance or rejection. Hence, we quantitatively study 4,762 SPRs of five AI agents made to popular Python repositories drawn from the AIDev public dataset. We examine SPRs impact on code complexity, other quality issues, and security vulnerabilities, especially to determine whether these insights can hint at the rationale for acceptance or rejection of SPRs.
- Abstract(参考訳): 我々は,AIが生成するプルリクエストについて,初めて実証的研究を行った。
このような静かなAIプルリクエスト(SPR)に関連するコメントや議論がないことは、彼らの受け入れや拒絶の根拠を理解する上で、ユニークな課題となる。
そこで我々は,AIDev公開データセットから抽出されたポピュラーなPythonリポジトリに作成された5つのAIエージェントの4,762のSPRを定量的に研究した。
コード複雑性、その他の品質問題、セキュリティ脆弱性に影響を及ぼすSPRについて検討し、特にこれらの洞察がSPRの受け入れや拒絶の根拠を示唆できるかどうかを判断する。
関連論文リスト
- On Autopilot? An Empirical Study of Human-AI Teaming and Review Practices in Open Source [11.412808537439973]
プロジェクトレベルのガイドラインとAI支援プルリクエスト(PR)との開発者のインタラクションについて検討した。
AIが共著するPRの67.5%以上が、コードオーナシップのないコントリビュータから生まれています。
非オーナーの開発者が最もフィードバックを受けられるような、人間が作ったPRとは対照的に、非オーナーのAI共著のPRは最小限のフィードバックを受け取っている。
論文 参考訳(メタデータ) (2026-01-20T09:09:53Z) - Measuring the Vulnerability Disclosure Policies of AI Vendors [6.699753859123699]
264社のAIベンダーの開示ポリシーを検討する。
36%のベンダが公開チャネルを提供しておらず、AI関連のリスクを明示的に言及しているのは18%に過ぎません。
我々は、バグ報奨金政策の進化が学術研究や現実世界の出来事に遅れをとっていることを示している。
論文 参考訳(メタデータ) (2025-09-07T16:44:28Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Users Favor LLM-Generated Content -- Until They Know It's AI [0.0]
本研究では,コンテンツソースが隠蔽されたり開示されたりした場合に,人間のラングモデルと大規模ラングモデルを用いて,一般的な質問に対する応答を個人がどのように評価するかを検討する。
以上の結果から,参加者はAIによる反応を好む傾向が示唆された。
AIの起源が明らかになると、この選好は著しく低下し、評価的判断が応答の発覚の開示に影響されることが示唆される。
論文 参考訳(メタデータ) (2025-02-23T11:14:02Z) - Consent in Crisis: The Rapid Decline of the AI Data Commons [74.68176012363253]
汎用人工知能(AI)システムは、大量の公開Webデータに基づいて構築されている。
我々は,AIトレーニングコーパスに基づくWebドメインに対する同意プロトコルの大規模かつ長期的監査を行う。
論文 参考訳(メタデータ) (2024-07-20T16:50:18Z) - SpeechDPR: End-to-End Spoken Passage Retrieval for Open-Domain Spoken Question Answering [76.4510005602893]
SQA(Spken Question Answering)は、機械がユーザの質問に応答するために必要である。
本稿では、最初のエンドツーエンドフレームワークであるSpeechDPR(SpeechDPR)を提案する。
教師なしASR (UASR) と高密度テキスト検索器 (TDR) のカスケードモデルから知識を抽出して文レベルの意味表現を学習する
論文 参考訳(メタデータ) (2024-01-24T14:08:38Z) - Should Machine Learning Models Report to Us When They Are Clueless? [0.0]
我々は、AIモデルは、慣れ親しんだデータの範囲外を誇張していると報告する。
モデルを外挿したかどうかを知ることは、AIモデルの説明に含めるべき基本的な洞察である。
論文 参考訳(メタデータ) (2022-03-23T01:50:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。