論文の概要: How AI Developers Overcome Communication Challenges in a
Multidisciplinary Team: A Case Study
- arxiv url: http://arxiv.org/abs/2101.06098v1
- Date: Wed, 13 Jan 2021 19:33:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 07:54:59.623139
- Title: How AI Developers Overcome Communication Challenges in a
Multidisciplinary Team: A Case Study
- Title(参考訳): AI開発者が多分野チームにおけるコミュニケーション上の課題を克服する方法:ケーススタディ
- Authors: David Piorkowski, Soya Park, April Yi Wang, Dakuo Wang, Michael
Muller, Felix Portnoy
- Abstract要約: AIアプリケーションの開発は、AI開発者と協力する複数の役割を含む、多分野の取り組みである。
これらのコラボレーションでは、データサイエンスに精通したAI開発者と、通常はそうでない外部ステークホルダの間に知識ミスマッチがあります。
この違いはコミュニケーションのギャップを招き、AI開発者はコラボレータにデータサイエンスの概念を説明することに失敗する。
- 参考スコア(独自算出の注目度): 11.633108017016985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of AI applications is a multidisciplinary effort, involving
multiple roles collaborating with the AI developers, an umbrella term we use to
include data scientists and other AI-adjacent roles on the same team. During
these collaborations, there is a knowledge mismatch between AI developers, who
are skilled in data science, and external stakeholders who are typically not.
This difference leads to communication gaps, and the onus falls on AI
developers to explain data science concepts to their collaborators. In this
paper, we report on a study including analyses of both interviews with AI
developers and artifacts they produced for communication. Using the analytic
lens of shared mental models, we report on the types of communication gaps that
AI developers face, how AI developers communicate across disciplinary and
organizational boundaries, and how they simultaneously manage issues regarding
trust and expectations.
- Abstract(参考訳): aiアプリケーションの開発は、複数の分野にわたる取り組みであり、ai開発者と協力する複数の役割、データサイエンティストを含むための包括的用語、および同じチームにおける他のai関連の役割を含む。
これらのコラボレーションの間に、データサイエンスに熟練したAI開発者と、通常はそうでない外部ステークホルダとの間には、知識のミスマッチがあります。
この違いはコミュニケーションのギャップを招き、AI開発者はコラボレータにデータサイエンスの概念を説明することに失敗する。
本稿では,AI開発者へのインタビューとコミュニケーションのために作成したアーティファクトの両方の分析を含む研究について報告する。
共有精神モデルの分析レンズを用いて、AI開発者が直面するコミュニケーションギャップの種類、AI開発者が規律や組織の境界を越えてコミュニケーションする方法、信頼と期待に関する問題を同時に管理する方法を報告します。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Capturing Humans' Mental Models of AI: An Item Response Theory Approach [12.129622383429597]
我々は、AIエージェントのパフォーマンスが、他の人間のパフォーマンスよりも平均的にはるかに良いと期待していることを示します。
以上の結果から,AIエージェントの性能は他の人間よりも平均的に有意に向上することが示唆された。
論文 参考訳(メタデータ) (2023-05-15T23:17:26Z) - Why is AI not a Panacea for Data Workers? An Interview Study on Human-AI
Collaboration in Data Storytelling [59.08591308749448]
業界と学界の18人のデータワーカーにインタビューして、AIとのコラボレーションの場所と方法を聞いた。
驚いたことに、参加者はAIとのコラボレーションに興奮を見せたが、彼らの多くは反感を表明し、曖昧な理由を指摘した。
論文 参考訳(メタデータ) (2023-04-17T15:30:05Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Measuring Ethics in AI with AI: A Methodology and Dataset Construction [1.6861004263551447]
我々は、AI技術のこのような新しい機能を使用して、AI測定能力を増強することを提案する。
我々は倫理的問題や関心事に関連する出版物を分類するモデルを訓練する。
私たちは、AIメトリクス、特に信頼できる公正なAIベースのツールや技術開発への彼らの貢献の意味を強調します。
論文 参考訳(メタデータ) (2021-07-26T00:26:12Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。