論文の概要: Personality over Precision: Exploring the Influence of Human-Likeness on ChatGPT Use for Search
- arxiv url: http://arxiv.org/abs/2511.06447v1
- Date: Sun, 09 Nov 2025 16:28:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.950865
- Title: Personality over Precision: Exploring the Influence of Human-Likeness on ChatGPT Use for Search
- Title(参考訳): 正確性よりも人格性:検索におけるChatGPT使用に対する人間的類似性の影響を探る
- Authors: Mert Yazan, Frederik Bungaran Ishak Situmeang, Suzan Verberne,
- Abstract要約: そこで我々は,ChatGPT と Google 間の信頼,人間的類似性(擬人化),および設計上の嗜好に関するユーザ認知について検討した。
分析では、ChatGPTとGoogle Daily(DUB)と、主にGoogle(DUG)に頼っている2つの異なるユーザーグループを特定した。
DUBグループはChatGPTに対する高い信頼を示し、より人間らしく認識し、パーソナライゼーションと会話の流れを強化するために事実的正確性を取引する意志を示した。
- 参考スコア(独自算出の注目度): 8.544772506500188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational search interfaces, like ChatGPT, offer an interactive, personalized, and engaging user experience compared to traditional search. On the downside, they are prone to cause overtrust issues where users rely on their responses even when they are incorrect. What aspects of the conversational interaction paradigm drive people to adopt it, and how it creates personalized experiences that lead to overtrust, is not clear. To understand the factors influencing the adoption of conversational interfaces, we conducted a survey with 173 participants. We examined user perceptions regarding trust, human-likeness (anthropomorphism), and design preferences between ChatGPT and Google. To better understand the overtrust phenomenon, we asked users about their willingness to trade off factuality for constructs like ease of use or human-likeness. Our analysis identified two distinct user groups: those who use both ChatGPT and Google daily (DUB), and those who primarily rely on Google (DUG). The DUB group exhibited higher trust in ChatGPT, perceiving it as more human-like, and expressed greater willingness to trade factual accuracy for enhanced personalization and conversational flow. Conversely, the DUG group showed lower trust toward ChatGPT but still appreciated aspects like ad-free experiences and responsive interactions. Demographic analysis further revealed nuanced patterns, with middle-aged adults using ChatGPT less frequently yet trusting it more, suggesting potential vulnerability to misinformation. Our findings contribute to understanding user segmentation, emphasizing the critical roles of personalization and human-likeness in conversational IR systems, and reveal important implications regarding users' willingness to compromise factual accuracy for more engaging interactions.
- Abstract(参考訳): ChatGPTのような会話型検索インタフェースは、従来の検索と比べてインタラクティブでパーソナライズされ、魅力的なユーザー体験を提供する。
マイナス面として、不正確であってもユーザーが回答に頼っている不信問題を引き起こす傾向にある。
会話の相互作用のパラダイムのどのような側面が採用を促しているのか、そして過信につながるパーソナライズされたエクスペリエンスをどのように生み出すのかは明確ではありません。
会話インタフェースの導入に影響を及ぼす要因を理解するため、173人の参加者を対象に調査を行った。
そこで我々は,ChatGPT と Google 間の信頼,人間的類似性(擬人化),および設計上の嗜好に関するユーザ認知について検討した。
オーバートラスト現象をよりよく理解するために、私たちはユーザに対して、使いやすさや人間的類似性といった構造に対して、事実性をトレードオフする意思について尋ねました。
分析では、ChatGPTとGoogle Daily(DUB)の2つの異なるユーザーグループと、主にGoogle(DUG)に依存しているグループを特定した。
DUBグループはChatGPTに対する高い信頼を示し、より人間らしく認識し、パーソナライゼーションと会話の流れを強化するために事実的正確性を取引する意志を示した。
逆に、DUGグループはChatGPTに対する信頼度は低かったが、広告のない体験やレスポンシブインタラクションといった側面をまだ評価していた。
デモグラフィー分析ではさらに、ChatGPTの使用頻度が低かった中年層がより信頼しており、誤情報に対する潜在的な脆弱性が示唆されているというニュアンスなパターンが明らかになった。
本研究は,ユーザセグメンテーションの理解に寄与し,対話型赤外線システムにおけるパーソナライゼーションと人間的類似性の重要性を強調し,ユーザによる現実的精度の妥協に対する重要な意味を明らかにする。
関連論文リスト
- Understanding Privacy Norms Around LLM-Based Chatbots: A Contextual Integrity Perspective [14.179623604712065]
我々は,300人のChatGPTユーザを対象に,ChatGPTデータの共有に関するプライバシー規範の出現を理解するための調査実験を行った。
以上の結果から,ユーザの関心事と行動との間には大きな隔たりがあることが判明した。
参加者は、200ドル相当のプレミアム機能と引き換えに、改善されたサービスのための個人情報の共有を一斉に拒否した。
論文 参考訳(メタデータ) (2025-08-09T00:22:46Z) - Blending Queries and Conversations: Understanding Tactics, Trust, Verification, and System Choice in Web Search and Chat Interactions [0.8397730500554048]
本稿では、Web検索とジェネレーティブAI-Chat機能を組み合わせたインタフェースを用いて、健康関連情報課題を解決するユーザスタディを提案する。
我々は、人々がインターフェイスでどのように振る舞ったか、なぜある方法で振る舞ったのか、そしてこれらの振舞いの結果がどのようなものであったかについて研究する。
論文 参考訳(メタデータ) (2025-04-07T14:59:55Z) - Investigating Affective Use and Emotional Well-being on ChatGPT [32.797983866308755]
本稿では,ChatGPTとのインタラクションがユーザの感情的幸福感,行動,経験に与える影響について検討する。
情緒的手がかりとして300万以上の会話を分析し,ChatGPTに対する認識から4,000人以上のユーザを調査した。
施設審査委員会(IRB)が承認したランダム化制御試験(RCT)を28日間に1,000人近い参加者で実施する。
論文 参考訳(メタデータ) (2025-04-04T19:22:10Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - ChatGPT for Us: Preserving Data Privacy in ChatGPT via Dialogue Text
Ambiguation to Expand Mental Health Care Delivery [52.73936514734762]
ChatGPTは人間のような対話を生成する能力で人気を集めている。
データに敏感なドメインは、プライバシとデータ所有に関する懸念から、ChatGPTを使用する際の課題に直面している。
ユーザのプライバシーを守るためのテキスト曖昧化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-19T02:09:52Z) - "HOT" ChatGPT: The promise of ChatGPT in detecting and discriminating
hateful, offensive, and toxic comments on social media [2.105577305992576]
生成AIモデルには、有害なコンテンツを理解し、検出する能力がある。
ChatGPTは人間のアノテーションと比較して約80%の精度が得られる。
論文 参考訳(メタデータ) (2023-04-20T19:40:51Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - How Close is ChatGPT to Human Experts? Comparison Corpus, Evaluation,
and Detection [8.107721810172112]
ChatGPTは、幅広い人間の質問に効果的に反応できる。
人々はChatGPTのような大きな言語モデル(LLM)が社会に与える影響を心配し始めています。
本研究では,人間の専門家とChatGPTの双方から,数万件の比較回答を収集した。
論文 参考訳(メタデータ) (2023-01-18T15:23:25Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。