論文の概要: Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions
- arxiv url: http://arxiv.org/abs/2510.02645v1
- Date: Fri, 03 Oct 2025 00:45:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.21981
- Title: Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions
- Title(参考訳): Mind the Gap: Human-LLM Assistant vs. Human-Human Interactionsにおける言語的多様性と適応戦略
- Authors: Fulei Zhang, Zhou Yu,
- Abstract要約: 大規模言語モデル(LLM)は、顧客向けアプリケーションにますます多くデプロイされている。
本研究は,2つの設定間でのユーザ言語の文法的流布度,丁寧さ,語彙的多様性に有意な差異が認められた。
打上げ後の通信スタイルの変更に対する堅牢性を高めるために,我々は2つの戦略を実験した。
- 参考スコア(独自算出の注目度): 14.21024646209994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) are increasingly deployed in customer-facing applications, a critical yet underexplored question is how users communicate differently with LLM chatbots compared to human agent. In this study, we present empirical evidence that users adopt distinct communication styles when users interact with chatbots versus human agents. Our analysis reveals significant differences in grammatical fluency, politeness, and lexical diversity in user language between the two settings. These findings suggest that models trained exclusively on human-human interaction data may not adequately accommodate the communication style shift that occurs once an LLM chatbot is deployed. To enhance LLM robustness to post-launch communication style changes, we experimented with two strategies: (1) data augmentation during the post-training phase and (2) inference-time user message reformulation. Our results indicate that models trained on stylistically diverse datasets significantly outperform those trained exclusively on original or stylistically uniform datasets, while inference-time reformulation proved less effective. These insights help us to better adapt our models for improved LLM-user interaction experiences.
- Abstract(参考訳): 大きな言語モデル(LLM)が顧客向けアプリケーションにますます導入されている中、重要な疑問は、ユーザがLLMチャットボットと人間エージェントと異なるコミュニケーションをする方法である。
本研究では,チャットボットと人間エージェントとの対話において,ユーザが異なるコミュニケーションスタイルを採用するという経験的証拠を提示する。
分析の結果,2つの設定間でのユーザ言語の文法的流布度,丁寧さ,語彙的多様性に有意な差が認められた。
これらの結果から,LLMチャットボットのデプロイ時に発生するコミュニケーションスタイルのシフトを,人間と人間のインタラクションデータに限定して訓練したモデルでは適切に適応できない可能性が示唆された。
打上げ後の通信スタイルの変化に対するLCMの堅牢性を高めるため,(1)訓練後のデータ増大と(2)推論時のユーザメッセージ更新の2つの戦略を実験した。
その結果,スタイリスティックな多様なデータセットでトレーニングされたモデルは,オリジナルあるいはスタイリスティックなデータセットでのみトレーニングされたモデルよりも有意に優れており,推論時間の改善は効果が低かった。
これらの洞察は、LLM-ユーザインタラクションエクスペリエンスを改善するために、モデルの改善に役立ちます。
関連論文リスト
- The Era of Real-World Human Interaction: RL from User Conversations [45.2392745984914]
In-the-wild user conversation から直接学習するパラダイムである Reinforcement Learning from Human Interaction (RLHI) を紹介する。
本研究では,(1)ユーザの自然言語フォローアップ応答に基づいて不満足なモデル出力を更新するユーザガイドリライトを用いたRLHI,(2)ユーザベースリワードを用いたRLHIの2つの補完手法を開発する。
論文 参考訳(メタデータ) (2025-09-29T17:50:31Z) - Human vs. Agent in Task-Oriented Conversations [22.743152820695588]
本研究は,大規模言語モデル(LLM)を模擬したユーザとタスク指向の対話における人間ユーザとの体系的比較を行った最初の事例である。
本分析により,問題解決手法における2つのユーザタイプ間の行動的差異が明らかとなった。
論文 参考訳(メタデータ) (2025-09-22T11:30:39Z) - DiverseDialogue: A Methodology for Designing Chatbots with Human-Like Diversity [5.388338680646657]
また, GPT-4o miniは, 複数の言語的特徴にまたがって, 実際の人間と系統的に異なることを示す。
本研究では,実際の人的インタラクションから派生した特徴を取り入れたユーザシミュレーションのプロンプトを自動生成する手法を提案する。
本手法は,特定の言語的特徴を対象とするように最適化され,大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-08-30T21:33:58Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Modulating Language Model Experiences through Frictions [56.17593192325438]
言語モデルの過度な消費は、短期において未確認エラーを伝播し、長期的な批判的思考のために人間の能力を損なうリスクを出力する。
行動科学の介入にインスパイアされた言語モデル体験のための選択的摩擦を提案し,誤用を抑える。
論文 参考訳(メタデータ) (2024-06-24T16:31:11Z) - LLM Agents in Interaction: Measuring Personality Consistency and
Linguistic Alignment in Interacting Populations of Large Language Models [4.706971067968811]
簡単な変数誘導サンプリングアルゴリズムを用いて,大規模言語モデル (LLM) エージェントの2群集団を作成する。
人格検査を行ない、共同作業にエージェントを提出し、異なるプロファイルが会話相手に対して異なるレベルの人格整合性および言語的整合性を示すことを確認する。
論文 参考訳(メタデータ) (2024-02-05T11:05:20Z) - On the interaction between supervision and self-play in emergent
communication [82.290338507106]
本研究は,2つのカテゴリの学習信号と,サンプル効率の向上を目標とする学習信号の関係について検討する。
人間のデータに基づく教師付き学習による初等訓練エージェントが,自己演奏が会話に優れていることが判明した。
論文 参考訳(メタデータ) (2020-02-04T02:35:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。