論文の概要: Relational Dissonance in Human-AI Interactions: The Case of Knowledge Work
- arxiv url: http://arxiv.org/abs/2509.15836v1
- Date: Fri, 19 Sep 2025 10:15:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.122511
- Title: Relational Dissonance in Human-AI Interactions: The Case of Knowledge Work
- Title(参考訳): 人間とAIの相互作用における関係的不協和性--知識労働を事例として
- Authors: Emrecan Gulay, Eleonora Picco, Enrico Glerean, Corinna Coupette,
- Abstract要約: 人為的な会話エージェントに固有の基本的なオントロジ的・リレーショナルなあいまいさは、個人がそれらに対して一貫したリレーショナルなスタンスを維持するのを困難にしている。
以上の結果から,このようなエージェントに対する人々の明瞭な姿勢は,インタラクション中に発生する関係力学とはしばしば異なることが示唆された。
本稿では,研究者,デザイナー,政策立案者の緊張感の認識を支援するために,関係不協和の概念を提案する。
- 参考スコア(独自算出の注目度): 4.678160092569168
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When AI systems allow human-like communication, they elicit increasingly complex relational responses. Knowledge workers face a particular challenge: They approach these systems as tools while interacting with them in ways that resemble human social interaction. To understand the relational contexts that arise when humans engage with anthropomorphic conversational agents, we need to expand existing human-computer interaction frameworks. Through three workshops with qualitative researchers, we found that the fundamental ontological and relational ambiguities inherent in anthropomorphic conversational agents make it difficult for individuals to maintain consistent relational stances toward them. Our findings indicate that people's articulated positioning toward such agents often differs from the relational dynamics that occur during interactions. We propose the concept of relational dissonance to help researchers, designers, and policymakers recognize the resulting tensions in the development, deployment, and governance of anthropomorphic conversational agents and address the need for relational transparency.
- Abstract(参考訳): AIシステムが人間のようなコミュニケーションを許すと、ますます複雑なリレーショナル応答が引き起こされる。
知識労働者は、これらのシステムを、人間の社会的相互作用に似た方法で相互作用しながら、ツールとしてアプローチする。
ヒトが人間型会話エージェントと関わり合う際に生じる関係的文脈を理解するためには、既存の人間とコンピュータの相互作用フレームワークを拡張する必要がある。
定性的な研究者による3つのワークショップを通じて、人間型会話エージェントに固有の基本的なオントロジ的・リレーショナルなあいまいさは、個人が彼らに対して一貫したリレーショナルなスタンスを維持するのを困難にしていることがわかった。
以上の結果から,このようなエージェントに対する人々の明瞭な姿勢は,インタラクション中に発生する関係力学とはしばしば異なることが示唆された。
本稿では,人間型対話エージェントの開発,展開,ガバナンスにおける緊張感を研究者,デザイナー,政策立案者が認識し,リレーショナル透明性の必要性に対処するために,リレーショナル不協和の概念を提案する。
関連論文リスト
- Evolving Collective Cognition in Human-Agent Hybrid Societies: How Agents Form Stances and Boundaries [12.68373270583966]
本研究では,人間とエージェントの混成社会における集団姿勢の分化と社会的境界形成の出現について検討する。
エージェントは事前に設定されたアイデンティティから独立して内在的なスタンスを示す。
以上の結果から,プリセットされたアイデンティティがエージェントの社会的構造を厳格に決定しないことが示唆された。
論文 参考訳(メタデータ) (2025-08-24T13:50:18Z) - Interactive AI and Human Behavior: Challenges and Pathways for AI Governance [3.799233413990495]
生成AIシステムは、長期的、個人的、およびリレーショナルな相互作用にますます関与する。
これらの対話型AIシステムは、時間の経過とともにユーザに対応し、継続的な関係を構築し、ユーザに代わって積極的に行動することも可能だ。
この新たなパラダイムでは、ガバナンスと政策開発を効果的に研究する方法を再考する必要があります。
論文 参考訳(メタデータ) (2025-08-12T19:15:35Z) - Classifying Epistemic Relationships in Human-AI Interaction: An Exploratory Approach [0.6906005491572401]
本研究は,研究と教育の文脈において,ユーザがAIをどのように評価し,信頼し,協力するかを調査する。
専門分野にまたがる31人の学者へのインタビューをもとに、5つのパートのコードブックを作成し、5つの関係タイプを特定した。
論文 参考訳(メタデータ) (2025-08-02T23:41:28Z) - When Trust Collides: Decoding Human-LLM Cooperation Dynamics through the Prisoner's Dilemma [10.143277649817096]
本研究では,大規模言語モデル(LLM)エージェントに対する人間の協調的態度と行動について検討する。
その結果, エージェントアイデンティティがほとんどの協調行動に有意な影響を及ぼすことが明らかとなった。
これらの知見は,自律エージェントとの競争におけるヒト適応の理解に寄与する。
論文 参考訳(メタデータ) (2025-03-10T13:37:36Z) - Challenges in Human-Agent Communication [55.53932430345333]
これらのシステムがもたらす12の重要なコミュニケーション課題を特定し分析する。
これには、エージェントからユーザへの情報伝達の課題、ユーザからエージェントへの情報伝達の課題、すべての人間とエージェントのコミュニケーションで考慮すべき課題の概略が含まれる。
私たちの発見は、これらのシステムの透明性と制御を支援するために、新しいデザインパターン、原則、ガイドラインを緊急に呼び出すのに役立ちます。
論文 参考訳(メタデータ) (2024-11-28T01:21:26Z) - Quriosity: Analyzing Human Questioning Behavior and Causal Inquiry through Curiosity-Driven Queries [91.70689724416698]
本稿では,3つの情報源から自然発生の13.5Kの質問を集めたQuriosityを紹介する。
分析の結果,データセットに因果的疑問(最大42%)が存在することが明らかとなった。
論文 参考訳(メタデータ) (2024-05-30T17:55:28Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Automatic Context-Driven Inference of Engagement in HMI: A Survey [6.479224589451863]
本稿では,人間と機械の相互作用に関するエンゲージメント推論について述べる。
これには、学際的定義、エンゲージメントコンポーネントと要因、公開データセット、地上真実の評価、そして最も一般的に使用される機能と方法が含まれる。
これは、信頼性の高いコンテキスト認識エンゲージメント推論機能を備えた、将来の人間と機械のインタラクションインターフェースの開発のためのガイドとして機能する。
論文 参考訳(メタデータ) (2022-09-30T10:46:13Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。