論文の概要: AI's Social Forcefield: Reshaping Distributed Cognition in Human-AI Teams
- arxiv url: http://arxiv.org/abs/2407.17489v2
- Date: Thu, 30 Oct 2025 15:09:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 20:30:31.250121
- Title: AI's Social Forcefield: Reshaping Distributed Cognition in Human-AI Teams
- Title(参考訳): AIのソーシャルフォースフィールド:人間-AIチームにおける分散認知の再構築
- Authors: Christoph Riedl, Saiph Savage, Josie Zvelebilova,
- Abstract要約: AIは、コラボレーションの社会的および認知的構造を積極的に再認識していることを示す。
AI参加はチームの分散認知アーキテクチャを再編成することを示す。
私たちは、チーム内のAIを社会的に影響力のあるアクターとして再考している。
- 参考スコア(独自算出の注目度): 6.386909552513031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI is not only a neutral tool in team settings; it actively reshapes the social and cognitive fabric of collaboration. We advance a unified framework of alignment in distributed cognition in human-AI teams -- a process through which linguistic, cognitive, and social coordination emerge as human and AI agents co-construct a shared representational space. Across two studies, we show that exposure to AI-generated language shapes not only how people speak, but also how they think, what they attend to, and how they relate to each other. Together, these findings reveal how AI participation reorganizes the distributed cognitive architecture of teams: AI systems function as implicit social forcefields. Our findings highlight the double-edged impact of AI: the same mechanisms that enable efficient collaboration can also erode epistemic diversity and undermine natural alignment processes. We argue for rethinking AI in teams as a socially influential actor and call for new design paradigms that foreground transparency, controllability, and group-level dynamics to foster responsible, productive human-AI collaboration.
- Abstract(参考訳): AIは、チーム設定において中立的なツールであるだけでなく、コラボレーションの社会的および認知的構造を積極的に再認識する。
人間とAIエージェントが共有表現空間を共同構築するにつれて、言語的、認知的、社会的調整が出現するプロセスである。
2つの研究で、AIが生成した言語への露出は、人々が話す方法だけでなく、どのように考えるか、何を出席するか、どのように相互に関連しているかも示している。
これらの発見は、AIの参加がチームの分散認知アーキテクチャを再編成する方法を明らかにしている:AIシステムは暗黙の社会的力場として機能する。
効率的なコラボレーションを可能にするのと同じメカニズムが、疫学の多様性を損なう可能性があり、自然なアライメントプロセスを損なう可能性がある。
私たちは、チーム内のAIを社会的に影響力のあるアクターとして再考し、責任があり生産的な人間とAIのコラボレーションを促進するために、透明性、コントロール可能性、グループレベルのダイナミクスを前提とした新しいデザインパラダイムを要求します。
関連論文リスト
- Actionable AI: Enabling Non Experts to Understand and Configure AI Systems [5.534140394498714]
Actionable AIでは、非専門家がブラックボックスエージェントを設定することができる。
不確実な条件下では、非専門家は高いレベルの性能を達成する。
我々は、AIベースのエージェントへのアクセスをオープンにする手段として、Actionable AIを提案する。
論文 参考訳(メタデータ) (2025-03-09T23:09:04Z) - Aligning Generalisation Between Humans and Machines [74.120848518198]
AI技術は、科学的発見と意思決定において人間を支援することができるが、民主主義と個人を妨害することもある。
AIの責任ある使用と人間-AIチームへの参加は、AIアライメントの必要性をますます示している。
これらの相互作用の重要かつしばしば見落とされがちな側面は、人間と機械が一般化する異なる方法である。
論文 参考訳(メタデータ) (2024-11-23T18:36:07Z) - Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Comparing Zealous and Restrained AI Recommendations in a Real-World Human-AI Collaboration Task [11.040918613968854]
正確さとリコールのトレードオフを慎重に活用することで、チームのパフォーマンスが大幅に向上する、と私たちは主張する。
我々は、a)AIアシストなし、b)高精度な「制限された」AI、c)3,466時間以上のアノテーション作業で、78のプロのアノテータのパフォーマンスを分析する。
論文 参考訳(メタデータ) (2024-10-06T23:19:19Z) - Navigating AI Fallibility: Examining People's Reactions and Perceptions of AI after Encountering Personality Misrepresentations [7.256711790264119]
ハイパーパーソナライズされたAIシステムは、パーソナライズされたレコメンデーションを提供するために人々の特性をプロファイルする。
これらのシステムは、人々の最も個人的な特性を推測する際にエラーに免疫がない。
人格の誤表現に遭遇した後、人々がどのように反応し、AIを知覚するかを検討するための2つの研究を行った。
論文 参考訳(メタデータ) (2024-05-25T21:27:15Z) - Competent but Rigid: Identifying the Gap in Empowering AI to Participate
Equally in Group Decision-Making [25.913473823070863]
人間とAIの協調的な意思決定に関する既存の研究は、主にAIと個々の意思決定者との相互作用に焦点を当てている。
本稿では、2人の参加者と1人のAIが3つの英語エッセイをランク付けする委員会を結成するウィザード・オブ・オズ(Wizard-of-oz)研究について述べる。
論文 参考訳(メタデータ) (2023-02-17T11:07:17Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - On some Foundational Aspects of Human-Centered Artificial Intelligence [52.03866242565846]
人間中心人工知能(Human Centered Artificial Intelligence)の意味については明確な定義はない。
本稿では,AIコンポーネントを備えた物理・ソフトウェア計算エージェントを指すHCAIエージェントについて紹介する。
HCAIエージェントの概念は、そのコンポーネントや機能とともに、人間中心のAIに関する技術的および非技術的議論を橋渡しする手段であると考えています。
論文 参考訳(メタデータ) (2021-12-29T09:58:59Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Does the Whole Exceed its Parts? The Effect of AI Explanations on
Complementary Team Performance [44.730580857733]
以前の研究では、AIが人間と最高のチームの両方を上回った場合にのみ、説明による改善が観察された。
我々は、3つのデータセットで混合メソッドのユーザー研究を行い、人間に匹敵する精度のAIが、参加者のタスク解決に役立ちます。
説明は、人間がAIの推奨を受け入れる可能性を高める。
論文 参考訳(メタデータ) (2020-06-26T03:34:04Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。