論文の概要: The AI Attribution Paradox: Transparency as Social Strategy in Open-Source Software Development
- arxiv url: http://arxiv.org/abs/2512.00867v1
- Date: Sun, 30 Nov 2025 12:30:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.46214
- Title: The AI Attribution Paradox: Transparency as Social Strategy in Open-Source Software Development
- Title(参考訳): AI属性パラドックス:オープンソースソフトウェア開発における社会戦略としての透明性
- Authors: Obada Kraishan,
- Abstract要約: 私たちは、2023-2025の7,393リポジトリにまたがる14,300のGitHubコミットを分析します。
我々は8つの主要なAIツールの属性戦略とコミュニティ対応を調査した。
開発者はコミュニティの精査を管理することで、AI支援の認知と戦略的にバランスをとることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI coding assistants have transformed software development, raising questions about transparency and attribution practices. We examine the "AI attribution paradox": how developers strategically balance acknowledging AI assistance with managing community scrutiny. Analyzing 14,300 GitHub commits across 7,393 repositories from 2023-2025, we investigated attribution strategies and community responses across eight major AI tools. Results reveal widespread AI usage (95.2% of commits) but strategic attribution: only 29.5% employ explicit disclosure, with dramatic tool variation (Claude 80.5% versus Copilot 9.0%). Explicit attribution triggers modest scrutiny (23% more questions and 21% more comments) but tool choice matters 20-30 times more for predicting reception. Community sentiment remains neutral regardless of attribution type, suggesting curiosity rather than hostility. Temporal analyses show rapid norm evolution: explicit attribution increased from near-zero in early 2024 to 40% by late 2025, indicating community adaptation. These findings illuminate attribution as strategic communication rather than simple transparency, advancing understanding of algorithmic accountability and norm formation during technological transitions. We discuss implications for developers navigating disclosure decisions, platforms designing attribution mechanisms, and researchers studying emergent practices in AI-augmented collaborative work.
- Abstract(参考訳): AIコーディングアシスタントはソフトウェア開発を変革し、透明性と帰属プラクティスに関する疑問を提起している。
我々は、開発者がコミュニティの精査を管理することで、AI支援の戦略的バランスをとる方法である「AI属性パラドックス」について検討する。
2023~2025年の7,393リポジトリで14,300のGitHubコミットを分析し,8つの主要なAIツールを対象とした属性戦略とコミュニティ対応を調査した。
その結果、AIの利用が広くなり(コミットの95.2%)、戦略的な帰結として29.5%しか明らかに公開されていない(Claude 80.5%対Copilot 9.0%)。
明示的な帰属は、控えめな精査(質問数23%、コメント数21%)を引き起こすが、ツールの選択は受信の予測に20~30倍必要である。
コミュニティの感情は帰属の種類に関わらず中立であり、敵意よりも好奇心を示唆している。
2024年初期から2025年後半にかけて、明示的な帰属がほぼゼロから40%に増加し、地域適応が見られた。
これらの知見は、単純な透明性よりも戦略的コミュニケーションとしての帰属を明るみに出し、技術的移行の際のアルゴリズム的説明責任と規範形成の理解を深めた。
我々は、開示決定をナビゲートする開発者、帰属メカニズムを設計するプラットフォーム、AIによる協調作業における創発的な実践を研究する研究者への影響について論じる。
関連論文リスト
- Reduced AI Acceptance After the Generative AI Boom: Evidence From a Two-Wave Survey Study [40.26767449635043]
本稿では,ChatGPTのローンチ前後におけるAIに対する公的な態度の変化について検討する。
AIが「全く受け入れられない」と回答した回答者の割合は23%から30%に増加した。
これらの変化は、教育、言語、性別格差の拡大の観点から、既存の社会的不平等を増大させてきた。
論文 参考訳(メタデータ) (2025-10-27T17:47:58Z) - Impatient Users Confuse AI Agents: High-fidelity Simulations of Human Traits for Testing Agents [58.00130492861884]
TraitBasisは、AIエージェントを体系的にストレステストするための軽量でモデルに依存しない方法である。
TraitBasisは、ステアブルなユーザ特性に対応するアクティベーション空間で方向を学習する。
We observed on average a 2%-30% performance degradation on $tau$-Trait across frontier model。
論文 参考訳(メタデータ) (2025-10-06T05:03:57Z) - LIMI: Less is More for Agency [49.63355240818081]
LIMI(Less Is More for Intelligent Agency)は、機関が根本的に異なる開発原則に従うことを示す。
高度なエージェント・インテリジェンスは、最小でも戦略的にキュレートされた自律行動のデモンストレーションから生まれる可能性がある。
マシンの自律性はデータの豊富さではなく、高品質なエージェント実証の戦略的キュレーションから生まれる。
論文 参考訳(メタデータ) (2025-09-22T10:59:32Z) - Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity [0.5789840336223054]
広く採用されているにもかかわらず、ソフトウェア開発におけるAIツールの影響はいまだ検討されていない。
2025年2月から6月までのフロンティアにおけるAIツールが、経験豊富なオープンソース開発者の生産性にどのように影響するかを理解するために、ランダム化制御トライアル(RCT)を実施しています。
適度なAI経験を持つ16人の開発者が、平均5年間の経験を持つ成熟したプロジェクトで246のタスクを完了した。
論文 参考訳(メタデータ) (2025-07-12T00:16:33Z) - Surgeons Awareness, Expectations, and Involvement with Artificial Intelligence: a Survey Pre and Post the GPT Era [3.6923164139355578]
本研究は,2021年と2024年に行われた比較調査を通じて,外科手術におけるAIの意識,期待,関与について検討した。
AIコースの認知度は2021年の14.5%から2024年の44.6%に上昇し、コース出席率は12.9%から23%に増加した。
AIの役割への期待は2024年に変化し、病院経営は関連性を高めた。
学際的なコラボレーションと構造化されたトレーニングは、AIの採用の成功に不可欠であると認識された。
論文 参考訳(メタデータ) (2025-06-09T21:46:08Z) - When Will AI Transform Society? Swedish Public Predictions on AI Development Timelines [0.0]
本研究は,スウェーデンにおける人工知能(AI)開発の可能性と時期に関する公的な期待について検討する。
我々は、医学的ブレークスルー、大量失業、民主的劣化、生活水準の改善、人工知能(AGI)、制御不能な超知能AIの6つの主要なシナリオを調査した。
発見はAI駆動型医療のブレークスルー(82.6%)について強いコンセンサスを示し、他の主要開発への期待は著しく低い。
論文 参考訳(メタデータ) (2025-04-05T13:57:04Z) - The 2024 Foundation Model Transparency Index [54.78174872757794]
ファンデーションモデル透明性指数(FMTI)は2023年10月に、主要なファンデーションモデル開発者の透明性を測定するために設立された。
FMTI 2023は、100の透明性指標で10の主要な基礎モデル開発者を評価した。
私たちは6ヶ月後に追跡調査を行い、同じ100の指標に対して14人の開発者を獲得しました。
FMTI 2023では、公開情報を探しましたが、FMTI 2024では、開発者は100の透明性指標に関するレポートを提出しました。
開発者は平均して100点中58点を獲得し、FMTI 2023よりも21点改善しています。
論文 参考訳(メタデータ) (2024-07-17T18:03:37Z) - Rethinking People Analytics With Inverse Transparency by Design [57.67333075002697]
我々は、デザインによる逆透過性(inverse transparency)と呼ぶ、労働分析のための新しい設計手法を提案する。
アーキテクチャの変更はコア機能を阻害することなく行われます。
我々は、デザインによる逆透明性は、受け入れられ、責任ある人々の分析を実現するための有望なアプローチである、と結論付けている。
論文 参考訳(メタデータ) (2023-05-16T21:37:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。