論文の概要: Never say never: Exploring the effects of available knowledge on agent persuasiveness in controlled physiotherapy motivation dialogues
- arxiv url: http://arxiv.org/abs/2602.12924v1
- Date: Fri, 13 Feb 2026 13:28:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.968738
- Title: Never say never: Exploring the effects of available knowledge on agent persuasiveness in controlled physiotherapy motivation dialogues
- Title(参考訳): 決して言わない: コントロールされた理学療法モチベーション対話におけるエージェント説得性に対する知識の効果を探る
- Authors: Stephan Vonschallen, Rahel Häusler, Theresa Schmiedel, Friederike Eyssel,
- Abstract要約: ロボットの生理的動機づけの文脈で, 説得性ChatGPT産生メッセージについて検討した。
以上の結果から,LSMをベースとしたGSAは,主張的・表現的性格特性に適応できる可能性が示唆された。
本研究は, GSAの行動パターンを実証的に研究することの重要性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Social Agents (GSAs) are increasingly impacting human users through persuasive means. On the one hand, they might motivate users to pursue personal goals, such as healthier lifestyles. On the other hand, they are associated with potential risks like manipulation and deception, which are induced by limited control over probabilistic agent outputs. However, as GSAs manifest communicative patterns based on available knowledge, their behavior may be regulated through their access to such knowledge. Following this approach, we explored persuasive ChatGPT-generated messages in the context of human-robot physiotherapy motivation. We did so by comparing ChatGPT-generated responses to predefined inputs from a hypothetical physiotherapy patient. In Study 1, we qualitatively analyzed 13 ChatGPT-generated dialogue scripts with varying knowledge configurations regarding persuasive message characteristics. In Study 2, third-party observers (N = 27) rated a selection of these dialogues in terms of the agent's expressiveness, assertiveness, and persuasiveness. Our findings indicate that LLM-based GSAs can adapt assertive and expressive personality traits -- significantly enhancing perceived persuasiveness. Moreover, persuasiveness significantly benefited from the availability of information about the patients' age and past profession, mediated by perceived assertiveness and expressiveness. Contextual knowledge about physiotherapy benefits did not significantly impact persuasiveness, possibly because the LLM had inherent knowledge about such benefits even without explicit prompting. Overall, the study highlights the importance of empirically studying behavioral patterns of GSAs, specifically in terms of what information generative AI systems require for consistent and responsible communication.
- Abstract(参考訳): ジェネレーティブ・ソーシャル・エージェント(GSA)は、説得的な手段によって、ますます人間のユーザーに影響を与えるようになっている。
一方で、より健康的なライフスタイルなど、個人的目標を追求する動機をユーザに提供する可能性もある。
一方、それらは、確率的エージェント出力に対する限定的な制御によって引き起こされる、操作や騙しのような潜在的なリスクと関連している。
しかし、GSAは利用可能な知識に基づくコミュニケーションパターンを示すため、それらの行動はそのような知識へのアクセスを通じて規制される可能性がある。
本研究は,ヒト・ロボットの生理的動機づけの文脈における説得性ChatGPT産生メッセージについて検討した。
仮説的理学療法患者からの既定入力とChatGPT生成反応を比較した。
研究1では,13のChatGPT生成対話スクリプトを質的に分析した。
研究2では、第三者の観察者(N = 27)が、エージェントの表現性、主張性、説得性の観点からこれらの対話の選択を評価した。
以上の結果から,LSMをベースとしたGSAは,自覚的・表現的性格特性に適応できる可能性が示唆された。
さらに, 患者の年齢や過去の職業に関する情報が, 認知的主張と表現力によって得られることにより, 説得性が著しく向上した。
理学療法の利点に関する文脈的知識は説得力に有意な影響を与えなかった。
全体として、この研究は、GSAの行動パターンを実証的に研究することの重要性を強調している。
関連論文リスト
- Understanding Persuasive Interactions between Generative Social Agents and Humans: The Knowledge-based Persuasion Model (KPM) [0.0]
ジェネレーティブソーシャルエージェント(GSA)は、人工知能を使用して、人間のユーザと自律的に通信する。
理論的枠組みとして知識に基づく説得モデル(KPM)を提案する。
論文 参考訳(メタデータ) (2026-02-12T01:53:28Z) - MMPersuade: A Dataset and Evaluation Framework for Multimodal Persuasion [73.99171322670772]
LVLM(Large Vision-Language Models)は、ショッピング、健康、ニュースなどの分野に展開されている。
MMPersuadeはLVLMにおけるマルチモーダルパーサージョンダイナミクスを体系的に研究するための統一的なフレームワークを提供する。
論文 参考訳(メタデータ) (2025-10-26T17:39:21Z) - How Persuasive Could LLMs Be? A First Study Combining Linguistic-Rhetorical Analysis and User Experiments [1.1277995582894218]
研究によると、参加者はChatGPTが強調する利点をしばしば認めるが、倫理的懸念はポスト・アクションを持続または強化する傾向にある。
これらの発見は、倫理的に敏感な領域におけるAIが生み出す説得に関する新たな洞察を浮き彫りにし、将来の研究の基盤となる。
論文 参考訳(メタデータ) (2025-08-13T08:45:04Z) - Must Read: A Systematic Survey of Computational Persuasion [60.83151988635103]
AI駆動の説得は、有益なアプリケーションに活用することができるが、操作と非倫理的な影響を通じて脅威を引き起こす。
本調査では,AIによる説得の安全性,公平性,有効性を高めるための今後の研究方針について概説する。
論文 参考訳(メタデータ) (2025-05-12T17:26:31Z) - From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations [34.426199139914615]
大規模言語モデル(LLM)は感情的サポートの会話の世代に革命をもたらした。
本稿では,感情的支援会話の創出におけるペルソナの役割について考察する。
論文 参考訳(メタデータ) (2025-02-17T05:24:30Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - PsychoGAT: A Novel Psychological Measurement Paradigm through Interactive Fiction Games with LLM Agents [68.50571379012621]
心理的な測定は、精神健康、自己理解、そして個人の発達に不可欠である。
心理学ゲームAgenT(サイコガト)は、信頼性、収束妥当性、差別的妥当性などの心理学的指標において統計的に有意な卓越性を達成している。
論文 参考訳(メタデータ) (2024-02-19T18:00:30Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。