論文の概要: The Adaptation Paradox: Agency vs. Mimicry in Companion Chatbots
- arxiv url: http://arxiv.org/abs/2509.12525v1
- Date: Tue, 16 Sep 2025 00:02:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.815491
- Title: The Adaptation Paradox: Agency vs. Mimicry in Companion Chatbots
- Title(参考訳): 適応パラドックス:コンパニオン・チャットボットにおけるエージェンシー対ミミリー
- Authors: T. James Brandt, Cecilia Xi Wang,
- Abstract要約: 視覚的ユーザオーサシップと包括的言語スタイルの模倣の2つの経路をテストする。
ユーザ主導のパーソナライゼーションとスタイリスティックなシフトの制限を優先すべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI powers a growing wave of companion chatbots, yet principles for fostering genuine connection remain unsettled. We test two routes: visible user authorship versus covert language-style mimicry. In a preregistered 3x2 experiment (N = 162), we manipulated user-controlled avatar generation (none, premade, user-generated) and Language Style Matching (LSM) (static vs. adaptive). Generating an avatar boosted rapport ($\omega^2$ = .040, p = .013), whereas adaptive LSM underperformed static style on personalization and satisfaction (d = 0.35, p = .009) and was paradoxically judged less adaptive (t = 3.07, p = .003, d = 0.48). We term this an Adaptation Paradox: synchrony erodes connection when perceived as incoherent, destabilizing persona. To explain, we propose a stability-and-legibility account: visible authorship fosters natural interaction, while covert mimicry risks incoherence. Our findings suggest designers should prioritize legible, user-driven personalization and limit stylistic shifts rather than rely on opaque mimicry.
- Abstract(参考訳): 生成AIはチャットボットの成長の波を支えているが、真のコネクティビティを育むための原則は未解決のままだ。
視覚的ユーザオーサシップと包括的言語スタイルの模倣の2つの経路をテストする。
事前登録した3x2実験(N = 162)では,ユーザ制御アバター生成(非,プリメイド,ユーザ生成)と言語スタイルマッチング(LSM)(静的対適応)を操作した。
アバターはラプポート(「\omega^2$ = .040, p = .013」)を生成するのに対し、適応的なLSMはパーソナライズと満足度(d = 0.35, p = .009)の静的スタイルに劣り、パラドックス的により適応性が低いと判断された(t = 3.07, p = .003, d = 0.48)。
我々はこれを適応パラドックス(Adaptation Paradox: synchrony erodes connection)と呼ぶ。
著者の視認性は自然の相互作用を促進するが,模倣は不整合のリスクを隠蔽する。
この結果から,デザイナーは不透明な模倣に頼るのではなく,正当でユーザ主導のパーソナライゼーションとスタイルシフトを優先すべきであることが示唆された。
関連論文リスト
- Words & Weights: Streamlining Multi-Turn Interactions via Co-Adaptation [55.938648534942665]
マルチターンインタラクション(T2PAM)に対するテスト時ポリシー適応は,大規模言語モデル(LLM)と動的ユーザニーズとの整合に不可欠である。
本稿では,単語と重みの不均一な空間上での相互作用を協調最適化問題として再構成するフレームワークであるROSA2を提案する。
論文 参考訳(メタデータ) (2026-03-02T02:16:20Z) - Human Control Is the Anchor, Not the Answer: Early Divergence of Oversight in Agentic AI Communities [2.5424331328233207]
エージェントAIの監視は、しばしば単一の目標("ヒューマンコントロール")として議論されるが、早期採用はロール固有の期待をもたらす可能性がある。
r/OpenClaw(デプロイと運用)とr/Moltbook(エージェント中心のソーシャルインタラクション)の2つの社会技術的役割を反映したRedditコミュニティの比較分析を行った。
r/OpenClawは、実行ガードレールとリカバリ(アクションリスク)を強調し、r/Moltbookは、公共の相互作用におけるアイデンティティ、正当性、説明責任を強調している。
論文 参考訳(メタデータ) (2026-02-10T00:10:20Z) - Evolving Interpretable Constitutions for Multi-Agent Simulation [0.0]
我々は,多エージェントLLMシステムにおける行動規範を自動的に発見するフレームワークであるコンスティチューショナル・エボリューショナル・エボリューションを提案する。
生存圧力を伴うグリッドワールドシミュレーションを用いて,個人と集団福祉の緊張関係について検討する。
我々の解釈可能な規則は、規定されるよりもむしろ協調規範を発見できることを示している。
論文 参考訳(メタデータ) (2026-01-31T14:41:43Z) - The Paradox of Robustness: Decoupling Rule-Based Logic from Affective Noise in High-Stakes Decision-Making [1.0671844383558033]
大規模言語モデル(LLM)は、小さな急激な摂動に敏感であり、ユーザのバイアスとサイコファン的アライメントの傾向が広く文書化されている。
LLMは人体よりも110~300倍の抵抗性を示すロバスト性ギャップを定量化する。
LLMはクエリのフォーマットの“脆弱”な場合もありますが,決定にバイアスがかかる理由に対して,非常に“安定”しているのです。
論文 参考訳(メタデータ) (2026-01-29T09:17:05Z) - PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory [56.81126490418336]
パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
PersonaMem-v2は300以上のシナリオ、20,000以上のユーザの好み、128kのコンテキストウィンドウで、1,000の現実的なユーザ-チャットボットインタラクションをシミュレートする。
我々はQwen3-4BをトレーニングしてGPT-5を上回り、暗黙のパーソナライゼーションにおいて53%の精度を達成した。
論文 参考訳(メタデータ) (2025-12-07T06:48:23Z) - DisCo: Reinforcement with Diversity Constraints for Multi-Human Generation [60.741022906593685]
DisCoは、マルチヒューマン世代におけるアイデンティティの多様性を直接最適化する最初のRLベースのフレームワークである。
グループ相対ポリシー最適化によるDisCo微粒フローマッチングモデル。
DiverseHumans Testsetでは、DisCoは98.6のユニークな顔の精度とほぼ完璧なグローバルアイデンティティスプレッドを実現している。
論文 参考訳(メタデータ) (2025-10-01T19:28:51Z) - Navigating the Synchrony-Stability Frontier in Adaptive Chatbots [0.0]
コア設計の緊張を明示する計算評価フレームワークを提案する。
人間のログデータセットに対する明示的な適応ポリシーをシミュレートし比較する。
限定されたポリシーは、同期に控えめなコストで、安定性の大幅な向上を実現している。
我々は、フロンティアポリシーが命令のチャーンを減らし、ジャリングレジスタのフリップを減らしたことを示す「素早い正当性」を定量化する。
論文 参考訳(メタデータ) (2025-09-30T22:50:30Z) - Generative Exaggeration in LLM Social Agents: Consistency, Bias, and Toxicity [2.3997896447030653]
ソーシャルメディア上での政治談話のシミュレーションにおいて,Large Language Models (LLM) がどのように振る舞うかを検討する。
我々は、実ユーザ1,186名に基づくLCMエージェントを構築し、制御された条件下で政治的に健全なツイートに返信するよう促す。
よりリッチな文脈化によって内部の一貫性が向上するだけでなく、分極、スタイリングされた信号、有害な言語も増幅される。
論文 参考訳(メタデータ) (2025-07-01T10:54:51Z) - AI persuading AI vs AI persuading Humans: LLMs' Differential Effectiveness in Promoting Pro-Environmental Behavior [70.24245082578167]
環境保護行動(PEB)は気候変動に対処するために不可欠であるが、意識を意図や行動に変えることはいまだ明白である。
大規模言語モデル(LLM)をPEBを促進するツールとして検討し,その影響を3,200人の参加者で比較した。
人工的およびシミュレートされたエージェントは、介入後のEBスタンスに大きく影響し、ヒトの反応はほとんど変化しない。
論文 参考訳(メタデータ) (2025-03-03T21:40:55Z) - MimicTalk: Mimicking a personalized and expressive 3D talking face in minutes [74.82911268630463]
トーキングフェース生成(TFG)は、ターゲットアイデンティティーの顔をアニメーション化し、リアルなトーキングビデオを作成することを目的としている。
MimicTalkは、個人別TFGの効率性と堅牢性を改善するために、NeRFベースの個人非依存のジェネリックモデルから豊富な知識を活用する。
私たちのMimicTalkは、ビデオの品質、効率、表現性に関して、これまでのベースラインを超えていることが実験によって示されています。
論文 参考訳(メタデータ) (2024-10-09T10:12:37Z) - Quantifying the Persona Effect in LLM Simulations [25.367927300697424]
大規模言語モデル(LLM)は、人間の言語と振る舞いをシミュレートする際、顕著な可能性を示してきた。
本研究では,パーソナ変数のデコグラフィ,社会的,行動的要因の統合がLLMの多様な視点をシミュレートする能力にどのように影響するかを検討する。
既存の主観的NLPデータセットにおけるアノテーションの10%のばらつきをペルソナ変数が説明できることがわかった。
論文 参考訳(メタデータ) (2024-02-16T16:35:35Z) - Measuring and Controlling Instruction (In)Stability in Language Model Dialogs [72.38330196290119]
System-promptingは、言語モデルチャットボットをカスタマイズするツールで、特定の命令に従うことができる。
本稿では,仮説を検証し,セルフチャットによる命令安定性の評価を行うベンチマークを提案する。
我々は8ラウンドの会話で重要な指示ドリフトを明らかにした。
そこで本研究では,2つの強力なベースラインに対して良好に比較可能なsplit-softmaxという軽量な手法を提案する。
論文 参考訳(メタデータ) (2024-02-13T20:10:29Z) - Simple synthetic data reduces sycophancy in large language models [88.4435858554904]
言語モデルにおける梅毒の有病率について検討する。
サイコファシー(Sycophancy)とは、モデルがそのビューが客観的に正しくない場合でも、人間のユーザのビューに従うように、応答を調整する場所である。
論文 参考訳(メタデータ) (2023-08-07T23:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。