論文の概要: Conceptual Metaphors Impact Perceptions of Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2008.02311v1
- Date: Wed, 5 Aug 2020 18:39:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 18:40:03.865762
- Title: Conceptual Metaphors Impact Perceptions of Human-AI Collaboration
- Title(参考訳): 概念メタファーが人間-AIコラボレーションの知覚に与える影響
- Authors: Pranav Khadpe, Ranjay Krishna, Li Fei-Fei, Jeffrey Hancock, Michael
Bernstein
- Abstract要約: 低い能力を示すメタファーは、高い能力を示すメタファーよりも、エージェントのより良い評価につながることが分かっています。
第2の研究では、メタファーによって予測される能力が増加するにつれて、採用の意図が急速に低下することを確認する。
これらの結果から,プロジェクション能力は新規利用者を惹きつけるのに役立つ可能性が示唆された。
- 参考スコア(独自算出の注目度): 29.737986509769808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the emergence of conversational artificial intelligence (AI) agents, it
is important to understand the mechanisms that influence users' experiences of
these agents. We study a common tool in the designer's toolkit: conceptual
metaphors. Metaphors can present an agent as akin to a wry teenager, a toddler,
or an experienced butler. How might a choice of metaphor influence our
experience of the AI agent? Sampling metaphors along the dimensions of warmth
and competence---defined by psychological theories as the primary axes of
variation for human social perception---we perform a study (N=260) where we
manipulate the metaphor, but not the behavior, of a Wizard-of-Oz conversational
agent. Following the experience, participants are surveyed about their
intention to use the agent, their desire to cooperate with the agent, and the
agent's usability. Contrary to the current tendency of designers to use high
competence metaphors to describe AI products, we find that metaphors that
signal low competence lead to better evaluations of the agent than metaphors
that signal high competence. This effect persists despite both high and low
competence agents featuring human-level performance and the wizards being blind
to condition. A second study confirms that intention to adopt decreases rapidly
as competence projected by the metaphor increases. In a third study, we assess
effects of metaphor choices on potential users' desire to try out the system
and find that users are drawn to systems that project higher competence and
warmth. These results suggest that projecting competence may help attract new
users, but those users may discard the agent unless it can quickly correct with
a lower competence metaphor. We close with a retrospective analysis that finds
similar patterns between metaphors and user attitudes towards past
conversational agents such as Xiaoice, Replika, Woebot, Mitsuku, and Tay.
- Abstract(参考訳): 対話型人工知能(AI)エージェントの出現に伴い,これらのエージェントのユーザ体験に影響を与えるメカニズムを理解することが重要である。
我々はデザイナーのツールキットで共通のツールである概念的メタファについて研究する。
メタファーは、乾いたティーンエイジャー、幼児、経験豊富な執事に似たエージェントを提示することができる。
比喩の選択はAIエージェントの経験にどのように影響を与えるのか?
人間の社会的知覚の変動の主軸として、心理学理論によって定義されたメタファーを温かみと能力の次元に沿ってサンプリングする--我々は、ウィザード・オブ・オズの会話エージェントのメタファーを操作する研究(N=260)を行う。
体験の後、参加者はエージェントの使用意図、エージェントと協力したいという願望、およびエージェントのユーザビリティについて調査される。
設計者がAI製品を記述するために高い能力のメタファを使う傾向とは対照的に、低い能力のメタファは高い能力のメタファよりもエージェントのより良い評価につながる。
この効果は、人間レベルのパフォーマンスを特徴とする高い能力と低い能力のエージェントと、ウィザードが条件付きで盲目であるにもかかわらず持続する。
第2の研究では、メタファーによって投影される能力が増加するにつれて、採用の意図が急速に低下することを確認する。
第3の研究では,メタファー選択が潜在的ユーザのシステム試用意欲に与える影響を評価し,高い能力と暖かさを想定したシステムにユーザを惹きつけることを見出した。
これらの結果は、プロジェクション能力が新規ユーザーを惹きつけるのに役立つことを示唆しているが、それらのユーザーは、能力のメタファーを素早く修正できなければエージェントを破棄することができる。
我々は,Xiaoice, Replika, Woebot, Mitsuku, Tayといった過去の会話エージェントに対するメタファとユーザの態度の類似したパターンを見出す振り返り分析に近づいた。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Can Generative Agents Predict Emotion? [0.0]
大規模言語モデル (LLM) は、多くの人間のような能力を示してきたが、LLMの共感的な理解と感情状態は、まだ人間のものと一致していない。
生成的LLMエージェントの感情状態が,新たな出来事を知覚し,新たな体験を過去の記憶と比較する新しいアーキテクチャを導入することにより,どのように進化していくかを検討する。
論文 参考訳(メタデータ) (2024-02-06T18:39:43Z) - Assistant, Parrot, or Colonizing Loudspeaker? ChatGPT Metaphors for
Developing Critical AI Literacies [0.9012198585960443]
本研究は,AIシステムの理解を形作るフレームの認識を構築する上で,AIのメタファの議論がいかに役立つかを考察する。
様々な情報源からメタファーを分析し、7つの質問に答えて個別に反映した。
我々は、それが人為的形態化を促進するかどうかの次元に沿って、それぞれの比喩を探索し、そのような比喩がどの程度AIがセンシティブであるかを示唆した。
論文 参考訳(メタデータ) (2024-01-15T15:15:48Z) - Agent AI: Surveying the Horizons of Multimodal Interaction [83.18367129924997]
エージェントAI(Agent AI)とは、視覚刺激や言語入力、その他の環境データを知覚できる対話型システムである。
我々は,バーチャルリアリティやシミュレートされたシーンを容易に作成し,仮想環境内に具体化されたエージェントと対話できる未来を構想する。
論文 参考訳(メタデータ) (2024-01-07T19:11:18Z) - Conceptualizing the Relationship between AI Explanations and User Agency [0.9051087836811617]
我々は,ケーススタディと思考実験を通して,ユーザ中心のレンズを通してエージェントと説明の関係を分析する。
提案手法は,利用者が将来的なインタラクションにおいて,より効果的な結果の変換を行えるようにすることで,エージェンシーのためのいくつかの第1ステップの1つとなることが判明した。
論文 参考訳(メタデータ) (2023-12-05T23:56:05Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - My Actions Speak Louder Than Your Words: When User Behavior Predicts
Their Beliefs about Agents' Attributes [5.893351309010412]
行動科学は、人々が時々無関係な情報を使用することを示唆している。
この現象の例としては、人間とエージェントの相互作用においてより良い結果を経験したユーザーが、そのエージェントをより優れた能力を持ち、好意的であり、また、自身の行動の結果である、より悪い結果を経験したユーザーよりも、ポストホックアセスメントにおいてより整合性を示すと体系的に評価した。
分析の結果,モデルの拡張の必要性が示唆され,そのような偏見を考慮し,エージェントがこのようなバイアスを検知し,積極的に行動し,ユーザの類似した偏見を補正するメカニズムも説明できる。
論文 参考訳(メタデータ) (2023-01-21T21:26:32Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。