論文の概要: Zero-shot Persuasive Chatbots with LLM-Generated Strategies and Information Retrieval
- arxiv url: http://arxiv.org/abs/2407.03585v1
- Date: Thu, 4 Jul 2024 02:28:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 19:31:32.372239
- Title: Zero-shot Persuasive Chatbots with LLM-Generated Strategies and Information Retrieval
- Title(参考訳): LLMによるゼロショット型説得型チャットボットと情報検索
- Authors: Kazuaki Furumai, Roberto Legaspi, Julio Vizcarra, Yudai Yamazaki, Yasutaka Nishimura, Sina J. Semnani, Kazushi Ikeda, Weiyan Shi, Monica S. Lam,
- Abstract要約: 大規模言語モデル(LLM)の一般化可能性と本質的な説得能力を活用する手法を提案する。
提案手法は,まず LLM を用いて応答を生成し,次にフライ時に使用する戦略を抽出し,応答における不確定なクレームを,その戦略をサポートする検索事実に置き換える。
シミュレーションと人間の会話に関する実験は、ゼロショットのアプローチが以前の作業よりも説得力があることを示している。
- 参考スコア(独自算出の注目度): 7.925754291635035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Persuasion plays a pivotal role in a wide range of applications from health intervention to the promotion of social good. Persuasive chatbots can accelerate the positive effects of persuasion in such applications. Existing methods rely on fine-tuning persuasive chatbots with task-specific training data which is costly, if not infeasible, to collect. To address this issue, we propose a method to leverage the generalizability and inherent persuasive abilities of large language models (LLMs) in creating effective and truthful persuasive chatbot for any given domain in a zero-shot manner. Unlike previous studies which used pre-defined persuasion strategies, our method first uses an LLM to generate responses, then extracts the strategies used on the fly, and replaces any unsubstantiated claims in the response with retrieved facts supporting the strategies. We applied our chatbot, PersuaBot, to three significantly different domains needing persuasion skills: donation solicitation, recommendations, and health intervention. Our experiments on simulated and human conversations show that our zero-shot approach is more persuasive than prior work, while achieving factual accuracy surpassing state-of-the-art knowledge-oriented chatbots. Our study demonstrated that when persuasive chatbots are employed responsibly for social good, it is an enabler of positive individual and social change.
- Abstract(参考訳): 説得は、健康介入から社会的善の促進まで幅広い応用において重要な役割を担っている。
説得型チャットボットは、そのようなアプリケーションにおける説得のポジティブな効果を加速することができる。
既存の方法では、タスク固有のトレーニングデータを備えた微調整型説得型チャットボットが使われています。
そこで本研究では,大規模言語モデル(LLM)の一般化可能性と本質的な説得能力を利用して,任意のドメインに対してゼロショットで効果的かつ真に説得可能なチャットボットを作成する手法を提案する。
事前定義された説得戦略を用いた従来の研究とは異なり、本手法はまずLSMを用いて応答を生成し、その後、フライで使用する戦略を抽出し、その戦略をサポートする検索事実に置き換える。
われわれはチャットボットPersuaBotを、寄付の勧誘、レコメンデーション、健康介入という3つの異なる説得スキルを必要とする3つの領域に適用した。
シミュレーションおよび人的会話実験により、ゼロショットアプローチは従来の作業よりも説得力があり、最先端の知識指向チャットボットを超越した事実的精度を実現していることが示された。
本研究は,社会改善に責任を負うような説得型チャットボットを採用すると,肯定的な個人的・社会的変化の実現が期待できることを示した。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - Measuring and Improving Persuasiveness of Large Language Models [12.134372070736596]
本稿ではPersuasionBenchとPersuasionArenaを紹介し,生成モデルの説得性を自動測定する。
我々の発見は、モデル開発者と政策立案者の両方にとって重要な意味を持つ。
論文 参考訳(メタデータ) (2024-10-03T16:36:35Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - How Johnny Can Persuade LLMs to Jailbreak Them: Rethinking Persuasion to
Challenge AI Safety by Humanizing LLMs [66.05593434288625]
本稿では, 大規模言語モデル (LLM) を人間のようなコミュニケーション手段として, ジェイルブレイクの新たな視点を紹介する。
本研究では,数十年にわたる社会科学研究から派生した説得的分類法を適用し,説得的敵対的プロンプト(PAP)をジェイルブレイク LLM に適用する。
PAPは、Llama 2-7b Chat、GPT-3.5、GPT-4の攻撃成功率を10ドルで一貫して92%以上達成している。
防衛面では,PAPに対する様々なメカニズムを探索し,既存の防衛に重大なギャップがあることを見出した。
論文 参考訳(メタデータ) (2024-01-12T16:13:24Z) - Why So Toxic? Measuring and Triggering Toxic Behavior in Open-Domain
Chatbots [24.84440998820146]
本稿では,チャットボットの毒性を定量的に測定する。
一般に利用可能なチャットボットは、有害なクエリを入力した場合、有害な応答を提供する傾向がある。
そこで我々は,GPT-2を微調整して非有害なクエリを生成する攻撃ToxicBuddyの設計と実験を行った。
論文 参考訳(メタデータ) (2022-09-07T20:45:41Z) - Human-to-Robot Imitation in the Wild [50.49660984318492]
本研究では,第三者の視点からの学習を中心に,効率的なワンショットロボット学習アルゴリズムを提案する。
実世界における20種類の操作タスクを含む,ワンショットの一般化と成功を示す。
論文 参考訳(メタデータ) (2022-07-19T17:59:59Z) - CheerBots: Chatbots toward Empathy and Emotionusing Reinforcement
Learning [60.348822346249854]
本研究では,複数の共感型チャットボットがユーザの暗黙の感情を理解し,複数の対話のターンに対して共感的に応答する枠組みを提案する。
チャットボットをCheerBotsと呼びます。CheerBotsは検索ベースまたは生成ベースで、深い強化学習によって微調整されます。
共感的態度で反応するため,CheerBotsの学習支援としてシミュレーションエージェントである概念人間モデルを開発し,今後のユーザの感情状態の変化を考慮し,共感を喚起する。
論文 参考訳(メタデータ) (2021-10-08T07:44:47Z) - NLP is Not enough -- Contextualization of User Input in Chatbots [4.833037692738672]
ディープネットワークに基づく高度な自然言語処理技術は、ユーザの要求を効率的に処理して機能を実行する。
チャットボットが普及するにつれて、医療への適用可能性は、過剰なシステムの経済的および人的コストの削減による魅力的な提案です。
しかし、医療用ボットには、安全かつ医学的に正確な情報収集が必要です。
論文 参考訳(メタデータ) (2021-05-13T18:57:32Z) - Put Chatbot into Its Interlocutor's Shoes: New Framework to Learn
Chatbot Responding with Intention [55.77218465471519]
本稿では,チャットボットに人間のような意図を持つための革新的なフレームワークを提案する。
我々のフレームワークには、ガイドロボットと人間の役割を担うインターロケータモデルが含まれていた。
本フレームワークを3つの実験的なセットアップを用いて検討し,4つの異なる指標を用いた誘導ロボットの評価を行い,柔軟性と性能の利点を実証した。
論文 参考訳(メタデータ) (2021-03-30T15:24:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。