論文の概要: A Concise Agent is Less Expert: Revealing Side Effects of Using Style Features on Conversational Agents
- arxiv url: http://arxiv.org/abs/2601.10809v1
- Date: Thu, 15 Jan 2026 19:18:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.269773
- Title: A Concise Agent is Less Expert: Revealing Side Effects of Using Style Features on Conversational Agents
- Title(参考訳): 簡潔なエージェントは、あまり専門ではない:会話エージェントに対するスタイル特徴の使用による副作用を明らかにする
- Authors: Young-Min Cho, Yuan Yuan, Sharath Chandra Guntuku, Lyle Ungar,
- Abstract要約: 本研究は, クロスフィーチャー型スタイリスティックサイドエフェクトに関する最初の体系的研究である。
1つのスタイルの機能のプロンプトが、ペアワイドなLarge Language Model評価フレームワークを介して、他のスタイルに因果的にどのように影響するかを定量化する。
その結果、簡潔さの促進など、一貫した構造的な副作用が認識する専門知識を著しく低下させることが明らかとなった。
- 参考スコア(独自算出の注目度): 14.1714863221125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Style features such as friendly, helpful, or concise are widely used in prompts to steer the behavior of Large Language Model (LLM) conversational agents, yet their unintended side effects remain poorly understood. In this work, we present the first systematic study of cross-feature stylistic side effects. We conduct a comprehensive survey of 127 conversational agent papers from ACL Anthology and identify 12 frequently used style features. Using controlled, synthetic dialogues across task-oriented and open domain settings, we quantify how prompting for one style feature causally affects others via a pairwise LLM as a Judge evaluation framework. Our results reveal consistent and structured side effects, such as prompting for conciseness significantly reduces perceived expertise. They demonstrate that style features are deeply entangled rather than orthogonal. To support future research, we introduce CASSE (Conversational Agent Stylistic Side Effects), a dataset capturing these complex interactions. We further evaluate prompt based and activation steering based mitigation strategies and find that while they can partially restore suppressed traits, they often degrade the primary intended style. These findings challenge the assumption of faithful style control in LLMs and highlight the need for multi-objective and more principled approaches to safe, targeted stylistic steering in conversational agents.
- Abstract(参考訳): 親しみやすい、役に立つ、あるいは簡潔なスタイルの特徴は、Large Language Model (LLM) の会話エージェントの振る舞いを判断するために広く使われているが、意図しない副作用はよく分かっていない。
本研究は, クロスフィーチャー・スタイリスティック・サイドエフェクトに関する最初の体系的研究である。
ACLアンソロジーから127件の会話エージェントを包括的に調査し,多用されるスタイルの特徴を12点同定した。
タスク指向およびオープンドメイン設定間の制御された合成対話を用いて、あるスタイルの機能のプロンプトが、判断評価フレームワークとしてペアワイズLLMを介して、他者に与える影響を定量的に評価する。
その結果、簡潔さの促進など、一貫した構造的な副作用が認識する専門知識を著しく低下させることが明らかとなった。
彼らはスタイルの特徴が直交ではなく深く絡み合っていることを示した。
今後の研究を支援するために、これらの複雑な相互作用を捉えるデータセットであるCASSE(Conversational Agent Stylistic Side Effects)を導入する。
さらに,プロンプト・ベースとアクティベーション・ステアリングに基づく緩和戦略を評価し,抑制された特性を部分的に復元できる一方で,主目的のスタイルを劣化させることがしばしばあることを示した。
これらの知見は、LLMにおける忠実なスタイル制御の仮定に挑戦し、会話エージェントの安全で標的としたスタイリスティックなステアリングに対する多目的的でより原則化されたアプローチの必要性を強調した。
関連論文リスト
- Are All Prompt Components Value-Neutral? Understanding the Heterogeneous Adversarial Robustness of Dissected Prompt in Large Language Models [11.625319498017733]
PromptAnatomyは、プロンプトを機能コンポーネントに分解する自動化フレームワークです。
提案手法であるComPerturbを用いて,各コンポーネントを選択的に摂動することで,逆例を生成する。
補完的なリソースとして,PromptAnatomyフレームワークを用いて4つの公開命令チューニングデータセットを注釈付けする。
論文 参考訳(メタデータ) (2025-08-03T02:46:30Z) - MIRAGE-Bench: LLM Agent is Hallucinating and Where to Find Them [52.764019220214344]
幻覚は、大きな言語モデル(LLM)ベースのエージェントに重大なリスクをもたらす。
MIRAGE-Benchは対話型環境における幻覚の抽出と評価のための最初の統一ベンチマークである。
論文 参考訳(メタデータ) (2025-07-28T17:38:29Z) - Abstract Counterfactuals for Language Model Agents [3.7540612510652176]
抽象対物(Abstract Counterfactuals)は、環境内の行動と相互作用の高レベルな特徴を強調するフレームワークである。
トークンレベルと潜時空間の両方の介入を考慮して,テキストベースのゲームと対実テキスト生成の実験を行う。
論文 参考訳(メタデータ) (2025-06-03T14:44:26Z) - Should We Tailor the Talk? Understanding the Impact of Conversational Styles on Preference Elicitation in Conversational Recommender Systems [19.830560938115436]
本研究では,会話スタイルの違いが会話推薦システム(CRS)の嗜好評価,タスクパフォーマンス,ユーザ満足度に及ぼす影響について検討した。
以上の結果から,ユーザの専門知識に基づく会話戦略の適応と,スタイル間の柔軟性の実現により,CRSにおけるユーザの満足度とレコメンデーションの有効性が向上することが示唆された。
論文 参考訳(メタデータ) (2025-04-17T17:01:17Z) - Exploring the Impact of Personality Traits on Conversational Recommender Systems: A Simulation with Large Language Models [70.180385882195]
本稿では,対話型レコメンダシステム(CRS)のためのパーソナリティを考慮したユーザシミュレーションを提案する。
ユーザエージェントはカスタマイズ可能な性格特性と嗜好を誘導し、システムエージェントはCRS内の現実的な相互作用をシミュレートする説得能力を有する。
実験により,現在最先端のLCMは,特定の性格特性に適合した多様なユーザ応答を効果的に生成できることが示された。
論文 参考訳(メタデータ) (2025-04-09T13:21:17Z) - SHARP: Unlocking Interactive Hallucination via Stance Transfer in Role-Playing LLMs [12.990119925990477]
大規模言語モデル(LLM)の対話的パターンを明らかにするための一般化可能で明示的なパラダイムを導入する。
まず、姿勢伝達による対話的幻覚を定義し、次にコモンセンス知識グラフから関係を抽出したベンチマークであるSHARPを構築した。
大規模な実験により、我々のパラダイムの有効性と安定性を確認し、これらの指標に影響を与える要因を調べ、従来の幻覚緩和ソリューションに挑戦する。
論文 参考訳(メタデータ) (2024-11-12T17:41:16Z) - Improving Zero-Shot ObjectNav with Generative Communication [60.84730028539513]
ゼロショットObjectNavの改良手法を提案する。
私たちのアプローチは、接地エージェントが制限され、時には障害のあるビューを持つ可能性があることを考慮に入れています。
論文 参考訳(メタデータ) (2024-08-03T22:55:26Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。