論文の概要: The Adaptation Paradox: Agency vs. Mimicry in Companion Chatbots
- arxiv url: http://arxiv.org/abs/2509.12525v1
- Date: Tue, 16 Sep 2025 00:02:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.815491
- Title: The Adaptation Paradox: Agency vs. Mimicry in Companion Chatbots
- Title(参考訳): 適応パラドックス:コンパニオン・チャットボットにおけるエージェンシー対ミミリー
- Authors: T. James Brandt, Cecilia Xi Wang,
- Abstract要約: 視覚的ユーザオーサシップと包括的言語スタイルの模倣の2つの経路をテストする。
ユーザ主導のパーソナライゼーションとスタイリスティックなシフトの制限を優先すべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI powers a growing wave of companion chatbots, yet principles for fostering genuine connection remain unsettled. We test two routes: visible user authorship versus covert language-style mimicry. In a preregistered 3x2 experiment (N = 162), we manipulated user-controlled avatar generation (none, premade, user-generated) and Language Style Matching (LSM) (static vs. adaptive). Generating an avatar boosted rapport ($\omega^2$ = .040, p = .013), whereas adaptive LSM underperformed static style on personalization and satisfaction (d = 0.35, p = .009) and was paradoxically judged less adaptive (t = 3.07, p = .003, d = 0.48). We term this an Adaptation Paradox: synchrony erodes connection when perceived as incoherent, destabilizing persona. To explain, we propose a stability-and-legibility account: visible authorship fosters natural interaction, while covert mimicry risks incoherence. Our findings suggest designers should prioritize legible, user-driven personalization and limit stylistic shifts rather than rely on opaque mimicry.
- Abstract(参考訳): 生成AIはチャットボットの成長の波を支えているが、真のコネクティビティを育むための原則は未解決のままだ。
視覚的ユーザオーサシップと包括的言語スタイルの模倣の2つの経路をテストする。
事前登録した3x2実験(N = 162)では,ユーザ制御アバター生成(非,プリメイド,ユーザ生成)と言語スタイルマッチング(LSM)(静的対適応)を操作した。
アバターはラプポート(「\omega^2$ = .040, p = .013」)を生成するのに対し、適応的なLSMはパーソナライズと満足度(d = 0.35, p = .009)の静的スタイルに劣り、パラドックス的により適応性が低いと判断された(t = 3.07, p = .003, d = 0.48)。
我々はこれを適応パラドックス(Adaptation Paradox: synchrony erodes connection)と呼ぶ。
著者の視認性は自然の相互作用を促進するが,模倣は不整合のリスクを隠蔽する。
この結果から,デザイナーは不透明な模倣に頼るのではなく,正当でユーザ主導のパーソナライゼーションとスタイルシフトを優先すべきであることが示唆された。
関連論文リスト
- Generative Exaggeration in LLM Social Agents: Consistency, Bias, and Toxicity [2.3997896447030653]
ソーシャルメディア上での政治談話のシミュレーションにおいて,Large Language Models (LLM) がどのように振る舞うかを検討する。
我々は、実ユーザ1,186名に基づくLCMエージェントを構築し、制御された条件下で政治的に健全なツイートに返信するよう促す。
よりリッチな文脈化によって内部の一貫性が向上するだけでなく、分極、スタイリングされた信号、有害な言語も増幅される。
論文 参考訳(メタデータ) (2025-07-01T10:54:51Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - MimicTalk: Mimicking a personalized and expressive 3D talking face in minutes [74.82911268630463]
トーキングフェース生成(TFG)は、ターゲットアイデンティティーの顔をアニメーション化し、リアルなトーキングビデオを作成することを目的としている。
MimicTalkは、個人別TFGの効率性と堅牢性を改善するために、NeRFベースの個人非依存のジェネリックモデルから豊富な知識を活用する。
私たちのMimicTalkは、ビデオの品質、効率、表現性に関して、これまでのベースラインを超えていることが実験によって示されています。
論文 参考訳(メタデータ) (2024-10-09T10:12:37Z) - Quantifying the Persona Effect in LLM Simulations [25.367927300697424]
大規模言語モデル(LLM)は、人間の言語と振る舞いをシミュレートする際、顕著な可能性を示してきた。
本研究では,パーソナ変数のデコグラフィ,社会的,行動的要因の統合がLLMの多様な視点をシミュレートする能力にどのように影響するかを検討する。
既存の主観的NLPデータセットにおけるアノテーションの10%のばらつきをペルソナ変数が説明できることがわかった。
論文 参考訳(メタデータ) (2024-02-16T16:35:35Z) - Measuring and Controlling Instruction (In)Stability in Language Model Dialogs [72.38330196290119]
System-promptingは、言語モデルチャットボットをカスタマイズするツールで、特定の命令に従うことができる。
本稿では,仮説を検証し,セルフチャットによる命令安定性の評価を行うベンチマークを提案する。
我々は8ラウンドの会話で重要な指示ドリフトを明らかにした。
そこで本研究では,2つの強力なベースラインに対して良好に比較可能なsplit-softmaxという軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T20:10:29Z) - Simple synthetic data reduces sycophancy in large language models [88.4435858554904]
言語モデルにおける梅毒の有病率について検討する。
サイコファシー(Sycophancy)とは、モデルがそのビューが客観的に正しくない場合でも、人間のユーザのビューに従うように、応答を調整する場所である。
論文 参考訳(メタデータ) (2023-08-07T23:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。