論文の概要: AI Where It Matters: Where, Why, and How Developers Want AI Support in Daily Work
- arxiv url: http://arxiv.org/abs/2510.00762v1
- Date: Wed, 01 Oct 2025 10:51:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.522232
- Title: AI Where It Matters: Where, Why, and How Developers Want AI Support in Daily Work
- Title(参考訳): AIが重要か - 開発者が日々の作業でAIをサポートするための場所、理由、方法
- Authors: Rudrajit Choudhuri, Carmen Badea, Christian Bird, Jenna Butler, Rob DeLine, Brian Houck,
- Abstract要約: ジェネレーティブAIはソフトウェアワークを再構築していますが、開発者が最も必要とする場所とサポートの明確なガイダンスはありません。
我々は、N=860の開発者を対象に、AIの助けを求める場所、理由、方法、限界を調査する大規模で混合的な研究を報告します。
私たちの結果は、開発者とその作業にとって重要なAIを提供するための、具体的かつコンテキスト的なガイダンスを提供します。
- 参考スコア(独自算出の注目度): 3.1984206905916
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI is reshaping software work, yet we lack clear guidance on where developers most need and want support, and how to design it responsibly. We report a large-scale, mixed-methods study of N=860 developers that examines where, why, and how they seek or limit AI help, providing the first task-aware, empirically validated mapping from developers' perceptions of their tasks to AI adoption patterns and responsible AI priorities. Using cognitive appraisal theory, we show that task evaluations predict openness to and use of AI, revealing distinct patterns: strong current use and a desire for improvement in core work (e.g., coding, testing); high demand to reduce toil (e.g., documentation, operations); and clear limits for identity- and relationship-centric work (e.g., mentoring). Priorities for responsible AI support vary by context: reliability and security for systems-facing tasks; transparency, alignment, and steerability to maintain control; and fairness and inclusiveness for human-facing work. Our results offer concrete, contextual guidance for delivering AI where it matters to developers and their work.
- Abstract(参考訳): ジェネレーティブAIはソフトウェアワークを再構築していますが、開発者が最も必要とする場所とサポート、それに責任を持って設計する方法に関する明確なガイダンスはありません。
N=860の開発者の大規模かつ混成的な調査を報告し、なぜ、どのようにAIの助けを求めるのか、どのように制限するかを調べ、開発者がタスクに対する認識からAIの採用パターンへのマッピングを経験的に検証した最初のタスク認識を提供する。
認知的評価理論を用いることで、タスク評価がAIのオープン性と使用を予測し、コアワークの改善(例えば、コーディング、テスト)、トイル削減(例えば、ドキュメント、運用)の要求の高い要求(例えば、ドキュメント、運用)、アイデンティティと関係中心の作業(例えば、メンタリング)の明確な制限といった、異なるパターンを明らかにします。
責任あるAIサポートの優先事項は、システム対応タスクの信頼性とセキュリティ、コントロールを維持するための透明性、アライメント、ステアビリティ、人間対応作業の公正性と包括性など、様々である。
私たちの結果は、開発者とその作業にとって重要なAIを提供するための、具体的かつコンテキスト的なガイダンスを提供します。
関連論文リスト
- The SPACE of AI: Real-World Lessons on AI's Impact on Developers [0.807084206814932]
我々は,SPACEフレームワークの次元にまたがるAIの影響,すなわち満足度,パフォーマンス,アクティビティ,コラボレーション,効率を,開発者がどのように認識するかを研究する。
AIは広く採用されており、生産性の向上、特にルーチンタスクに広く見なされている。
開発者の報告によると、効率性と満足度は向上し、コラボレーションへの影響の証拠は少なくなった。
論文 参考訳(メタデータ) (2025-07-31T21:45:54Z) - Code with Me or for Me? How Increasing AI Automation Transforms Developer Workflows [60.04362496037186]
本研究は,コーディングエージェントと開発者インタラクションを制御した最初の研究である。
我々は,2つの主要な協調型およびエージェント型符号化アシスタントの評価を行った。
結果から,エージェントはコピロトを超える方法で開発者を支援することができることがわかった。
論文 参考訳(メタデータ) (2025-07-10T20:12:54Z) - Explainability for Embedding AI: Aspirations and Actuality [1.8130068086063336]
説明可能なAI(XAI)は、開発者が構築するシステムをよりよく理解することを可能にする。
既存のXAIシステムは、まだこの願望には達していない。
私たちは、この複雑さに対処するための適切なサポートメカニズムを開発者に提供する必要があると考えています。
論文 参考訳(メタデータ) (2025-04-20T14:20:01Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Towards Decoding Developer Cognition in the Age of AI Assistants [9.887133861477233]
本稿では,生理的計測(EEGとアイトラッキング)とインタラクションデータを組み合わせて,AI支援プログラミングツールの開発者による使用状況を調べるための制御された観察的研究を提案する。
私たちは、認知負荷とタスク完了時間を計測しながら、AIアシストの有無に関わらず、プログラムタスクを完了させるために、プロの開発者を募集します。
論文 参考訳(メタデータ) (2025-01-05T23:25:21Z) - Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
我々は人間の知恵について知られているものを調べ、そのAIのビジョンをスケッチする。
AIシステムは特にメタ認知に苦しむ。
スマートAIのベンチマーク、トレーニング、実装について論じる。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Using AI-Based Coding Assistants in Practice: State of Affairs, Perceptions, and Ways Forward [9.177785129949]
私たちは、開発者がAIアシスタントをどのように使っているのかをよりよく理解することを目指しています。
我々は、AIアシスタントの使用方法に関する大規模な調査を行った。
論文 参考訳(メタデータ) (2024-06-11T23:10:43Z) - The Ethics of Advanced AI Assistants [53.89899371095332]
本稿では,高度AIアシスタントがもたらす倫理的・社会的リスクについて論じる。
我々は、高度なAIアシスタントを自然言語インタフェースを持つ人工知能エージェントとして定義し、ユーザに代わってアクションのシーケンスを計画し実行することを目的としている。
先進的なアシスタントの社会規模での展開を考察し、協力、株式とアクセス、誤情報、経済的影響、環境、先進的なAIアシスタントの評価方法に焦点をあてる。
論文 参考訳(メタデータ) (2024-04-24T23:18:46Z) - Do We Need Explainable AI in Companies? Investigation of Challenges,
Expectations, and Chances from Employees' Perspective [0.8057006406834467]
AIの使用は、企業とその従業員に対して、AIシステムの透明性と理解性を含む、新たな要件を提供する。
説明可能なAI(XAI)の分野は、これらの問題に対処することを目指している。
本報告では,(X)AIに対する従業員のニーズと態度について考察する。
論文 参考訳(メタデータ) (2022-10-07T13:11:28Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。