論文の概要: Zero-shot Persuasive Chatbots with LLM-Generated Strategies and Information Retrieval
- arxiv url: http://arxiv.org/abs/2407.03585v2
- Date: Tue, 08 Oct 2024 06:34:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:28:16.254368
- Title: Zero-shot Persuasive Chatbots with LLM-Generated Strategies and Information Retrieval
- Title(参考訳): LLMによるゼロショット型説得型チャットボットと情報検索
- Authors: Kazuaki Furumai, Roberto Legaspi, Julio Vizcarra, Yudai Yamazaki, Yasutaka Nishimura, Sina J. Semnani, Kazushi Ikeda, Weiyan Shi, Monica S. Lam,
- Abstract要約: 説得は、健康介入から社会的善の促進まで幅広い応用において重要な役割を担っている。
社会的善のために責任を負うような説得力のあるチャットボットは、肯定的な個人的および社会的変化の実現要因となる。
本稿では,多言語モデル(LLM)に基づくゼロショットチャットボットPersuaBotを提案する。
シミュレーションおよび人的会話実験により、ゼロショットアプローチは従来の作業よりも説得力があり、最先端の知識指向チャットボットを超越した事実的精度を実現していることが示された。
- 参考スコア(独自算出の注目度): 7.925754291635035
- License:
- Abstract: Persuasion plays a pivotal role in a wide range of applications from health intervention to the promotion of social good. Persuasive chatbots employed responsibly for social good can be an enabler of positive individual and social change. Existing methods rely on fine-tuning persuasive chatbots with task-specific training data which is costly, if not infeasible, to collect. Furthermore, they employ only a handful of pre-defined persuasion strategies. We propose PersuaBot, a zero-shot chatbot based on Large Language Models (LLMs) that is factual and more persuasive by leveraging many more nuanced strategies. PersuaBot uses an LLM to first generate natural responses, from which the strategies used are extracted. To combat hallucination of LLMs, Persuabot replace any unsubstantiated claims in the response with retrieved facts supporting the extracted strategies. We applied our chatbot, PersuaBot, to three significantly different domains needing persuasion skills: donation solicitation, recommendations, and health intervention. Our experiments on simulated and human conversations show that our zero-shot approach is more persuasive than prior work, while achieving factual accuracy surpassing state-of-the-art knowledge-oriented chatbots.
- Abstract(参考訳): 説得は、健康介入から社会的善の促進まで幅広い応用において重要な役割を担っている。
社会的善のために責任を負うような説得力のあるチャットボットは、肯定的な個人的および社会的変化の実現要因となる。
既存の方法では、タスク固有のトレーニングデータを備えた微調整型説得型チャットボットが使われています。
さらに、彼らはいくつかの事前定義された説得戦略しか採用していない。
本稿では,多言語モデル(LLM)に基づくゼロショットチャットボットPersuaBotを提案する。
PersuaBot は LLM を使ってまず自然応答を生成し、そこから戦略を抽出する。
LLMの幻覚と戦うために、Persuabotは、未確定の主張を、抽出された戦略を支持する回収された事実に置き換えた。
われわれはチャットボットPersuaBotを、寄付の勧誘、レコメンデーション、健康介入という3つの異なる説得スキルを必要とする3つの領域に適用した。
シミュレーションおよび人的会話実験により、ゼロショットアプローチは従来の作業よりも説得力があり、最先端の知識指向チャットボットを超越した事実的精度を実現していることが示された。
関連論文リスト
- LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
LLM-Roleplayは、人間とチャットボットの相互作用をシミュレートする多様なマルチターン対話を自動的に生成する、目標指向のペルソナベースの手法である。
我々は、異なる社会デマログラフグループから自然な人間-チャットボット対話を収集し、実際の人間-チャットボット対話と生成された対話を比較し、人間の評価を行う。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Counterfactual Reasoning Using Predicted Latent Personality Dimensions for Optimizing Persuasion Outcome [13.731895847081953]
本稿では,現在進行中の説得会話において,ユーザの潜在人格次元(LPD)を追跡する新しいアプローチを提案する。
我々はこれらのLPDに基づいて、全体的な説得結果を最適化するために、調整済みの対物発話を生成する。
論文 参考訳(メタデータ) (2024-04-21T23:03:47Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Persua: A Visual Interactive System to Enhance the Persuasiveness of
Arguments in Online Discussion [52.49981085431061]
説得力のある議論を書く能力を高めることは、オンラインコミュニケーションの有効性と文明性に寄与する。
オンライン議論における議論の説得力向上を支援するツールの設計目標を4つ導き出した。
Persuaは対話型ビジュアルシステムであり、議論の説得力を高めるための説得戦略の例に基づくガイダンスを提供する。
論文 参考訳(メタデータ) (2022-04-16T08:07:53Z) - A Storytelling Robot managing Persuasive and Ethical Stances via ACT-R:
an Exploratory Study [0.6882042556551609]
本稿では,ACT-R認知アーキテクチャによって制御されるストーリーテリングロボットについて述べる。
本報告では,63名の被験者を対象に,システムの探索的評価を行った。
論文 参考訳(メタデータ) (2021-07-27T14:27:58Z) - Addressing Inquiries about History: An Efficient and Practical Framework
for Evaluating Open-domain Chatbot Consistency [28.255324166852535]
整合性評価のためのAIH(Addressing Inquiries about History)フレームワークを提案する。
会話の段階では、AIHは対話履歴に関する適切な質問に対処し、チャットボットに歴史的な事実や意見を再宣言する。
矛盾認識段階では、人間の判断または自然言語推論(NLI)モデルを用いて、質問に対する回答が歴史と矛盾しているかどうかを認識することができる。
論文 参考訳(メタデータ) (2021-06-04T03:04:13Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z) - Strategic Argumentation Dialogues for Persuasion: Framework and
Experiments Based on Modelling the Beliefs and Concerns of the Persuadee [6.091096843566857]
特定の対話において議論が良いかどうかを決定するための2つの重要な次元は、意図する観衆が議論と反論を信じる程度であり、議論が意図する観衆の関心に与える影響である。
本稿では,これらのモデルを用いて,説得的対話における移動の選択を最適化する枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-28T08:49:24Z) - Examining the Ordering of Rhetorical Strategies in Persuasive Requests [58.63432866432461]
本研究では,大規模ローン要求コーパスからのテキスト要求において,コンテンツと修辞戦略をアンタングル化するために,変分オートエンコーダモデルを用いる。
特定の(順序の)戦略が要求の内容と一意に相互作用し、成功率に影響を与え、その結果、要求の説得力に影響を及ぼす。
論文 参考訳(メタデータ) (2020-10-09T15:10:44Z) - What Changed Your Mind: The Roles of Dynamic Topics and Discourse in
Argumentation Process [78.4766663287415]
本稿では,議論の説得力において重要な要因を自動的に分析する研究について述べる。
議論的会話における潜在トピックや談話の変化を追跡できる新しいニューラルモデルを提案する。
論文 参考訳(メタデータ) (2020-02-10T04:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。