論文の概要: What Needs Attention? Prioritizing Drivers of Developers' Trust and Adoption of Generative AI
- arxiv url: http://arxiv.org/abs/2505.17418v1
- Date: Fri, 23 May 2025 03:05:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-26 18:08:33.782771
- Title: What Needs Attention? Prioritizing Drivers of Developers' Trust and Adoption of Generative AI
- Title(参考訳): 注意が必要なものは何か? 開発者の信頼とジェネレーティブAIの採用を優先する
- Authors: Rudrajit Choudhuri, Bianca Trinkenreich, Rahul Pandita, Eirini Kalliamvakou, Igor Steinmacher, Marco Gerosa, Christopher Sanchez, Anita Sarma,
- Abstract要約: 我々は、GenAIに対する信頼と養子縁組の意図に影響を与える要因の理論モデルを開発した。
我々は,genAIのシステム/アウトプットの品質,機能的価値,目標維持が開発者の信頼に大きく影響していることを発見した。
我々は,人間とAIのインタラクションを効果的かつ信頼性が高く,包括的に行うために,今後のgenAIツール設計を導くための提案を行う。
- 参考スコア(独自算出の注目度): 18.1243411839447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (genAI) tools are advertised as productivity aids. Yet, issues related to miscalibrated trust and usage friction continue to hinder their adoption. Additionally, AI can be exclusionary, failing to support diverse users adequately, further exacerbating these concerns. One such aspect of diversity is cognitive diversity -- variations in users' cognitive styles -- that leads to divergence in interaction styles. When an individual's cognitive styles are unsupported, it creates additional barriers to technology adoption. Thus, to design tools that developers trust, we must first understand what factors affect their trust and intentions to use these tools in practice? We developed a theoretical model of factors influencing trust and adoption intentions towards genAI through a large-scale survey with developers (N=238) at GitHub and Microsoft. Using Partial Least Squares-Structural Equation Modeling (PLS-SEM), we found that genAI's system/output quality, functional value, and goal maintenance significantly influence developers' trust, which along with their cognitive styles, affects their intentions to use these tools in work. An Importance-Performance Matrix Analysis (IPMA) identified factors that, despite their strong influence, underperform, revealing specific genAI aspects that need design prioritization. We bolster these findings by qualitatively analyzing developers' perceived challenges and risks of genAI usage to uncover why these gaps persist in development contexts. For genAI to indeed be a true productivity aid rather than a disguised productivity sink, it must align with developers' goals, maintain contextual transparency, reduce cognitive burden, and provide equitable interaction support. We provide practical suggestions to guide future genAI tool design for effective, trustworthy, and inclusive human-genAI interactions.
- Abstract(参考訳): ジェネレーティブAI(genAI)ツールは生産性支援として宣伝されている。
しかし、誤解された信頼と利用摩擦に関連する問題は、引き続き採用を妨げる。
さらに、AIは除外され、多様なユーザーを適切にサポートすることができず、これらの懸念をさらに悪化させる可能性がある。
このような多様性の側面の1つは、認知の多様性 -- ユーザの認知スタイルのバリエーション -- であり、インタラクションスタイルのばらつきにつながります。
個人の認知スタイルがサポートされない場合、技術採用への障壁が生じる。
したがって、開発者が信頼するツールを設計するには、まず、これらのツールを実際に使用する意図と信頼にどんな影響を及ぼすかを理解する必要があります。
我々はGitHubとMicrosoftの開発者(N=238)による大規模な調査を通じて、genAIに対する信頼と採用意図に影響を与える要因の理論モデルを開発した。
また,PLS-SEM(Partial Least Squares-Structural Equation Modeling)を用いて,GenAIのシステム/アウトプットの品質,機能的価値,目標維持が開発者の信頼に大きく影響し,認知スタイルとともに,これらのツールを作業で使用する意図に大きく影響することを発見した。
重要性能行列分析(IPMA)は、その強い影響にもかかわらず、性能が低く、設計優先順位付けを必要とする特定のgenAI側面を明らかにする要因を特定した。
開発者が認識する課題とgenAI使用のリスクを質的に分析して、これらのギャップが開発コンテキストに持続する理由を明らかにすることで、これらの知見を裏付ける。
genAIが、偽装された生産性シンクではなく、真の生産性支援になるためには、開発者の目標と整合し、コンテキストの透明性を維持し、認知的負担を軽減し、公平なインタラクションサポートを提供する必要があります。
我々は,今後のgenAIツール設計を,効果的で信頼性が高く,包括的な人間-ゲンAIインタラクションに導くための実践的提案を行う。
関連論文リスト
- AI in Software Engineering: Perceived Roles and Their Impact on Adoption [0.0]
本稿では,開発者がAIを活用した開発ツールをどのように概念化するかを検討する。
私たちは、AIを不生のツールとして、AIを人間のようなチームメイトとして、2つの主要なメンタルモデルを特定します。
論文 参考訳(メタデータ) (2025-04-29T00:37:49Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - AI Automatons: AI Systems Intended to Imitate Humans [54.19152688545896]
人々の行動、仕事、能力、類似性、または人間性を模倣するように設計されたAIシステムが増加している。
このようなAIシステムの研究、設計、展開、可用性は、幅広い法的、倫理的、その他の社会的影響に対する懸念を喚起している。
論文 参考訳(メタデータ) (2025-03-04T03:55:38Z) - Computational Safety for Generative AI: A Signal Processing Perspective [65.268245109828]
計算安全性は、GenAIにおける安全性の定量的評価、定式化、研究を可能にする数学的枠組みである。
ジェイルブレイクによる悪意のあるプロンプトを検出するために, 感度解析と損失景観解析がいかに有効かを示す。
我々は、AIの安全性における信号処理の鍵となる研究課題、機会、そして重要な役割について論じる。
論文 参考訳(メタデータ) (2025-02-18T02:26:50Z) - Dear Diary: A randomized controlled trial of Generative AI coding tools in the workplace [2.5280615594444567]
ジェネレーティブAIコーディングツールは比較的新しいもので、開発者への影響は従来のコーディングメトリクスを超えて拡大している。
本研究の目的は、生成型AIツールに関する既存の信念、自己認識、そしてこれらのツールの定期的な使用がこれらの信念をどう変えるかを明らかにすることである。
その結果,ジェネレーティブなAIコーディングツールの導入と持続的使用は,これらのツールが有用かつ楽しいものであるという開発者の認識を著しく高めていることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-24T00:07:27Z) - Hey GPT, Can You be More Racist? Analysis from Crowdsourced Attempts to Elicit Biased Content from Generative AI [41.96102438774773]
本研究は,GenAIツールから偏りのあるアウトプットを抽出するプロンプトの設計に参加者が挑戦する大学レベルのコンペから得られた知見を提示する。
我々は、競争の提出を定量的に質的に分析し、GenAIにおける多様なバイアスと、GenAIにおけるバイアスを誘発する参加者の戦略を同定する。
論文 参考訳(メタデータ) (2024-10-20T18:44:45Z) - Investigating and Designing for Trust in AI-powered Code Generation Tools [15.155301866886647]
私たちは、AIコード生成ツールを適切に信頼する上での彼らの課題を理解するために、開発者にインタビューした。
我々は,開発者の信頼構築プロセスを支援する設計概念を探索する設計調査を行った。
これらの結果から,AIを利用したコード生成ツールの信頼性設計に関する設計勧告が提案されている。
論文 参考訳(メタデータ) (2023-05-18T18:23:51Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Uncertainty Quantification 360: A Holistic Toolkit for Quantifying and
Communicating the Uncertainty of AI [49.64037266892634]
我々は、AIモデルの不確実性定量化のためのオープンソースのPythonツールキットUncertainty Quantification 360 (UQ360)について述べる。
このツールキットの目標は2つある: ひとつは、AIアプリケーション開発ライフサイクルにおける不確実性を定量化し、評価し、改善し、伝達する共通のプラクティスを育むとともに、合理化するための幅広い能力を提供すること、もうひとつは、信頼できるAIの他の柱とのUQの接続をさらに探求することである。
論文 参考訳(メタデータ) (2021-06-02T18:29:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。