論文の概要: A Reliable Common-Sense Reasoning Socialbot Built Using LLMs and Goal-Directed ASP
- arxiv url: http://arxiv.org/abs/2407.18498v1
- Date: Fri, 26 Jul 2024 04:13:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-29 14:29:54.692166
- Title: A Reliable Common-Sense Reasoning Socialbot Built Using LLMs and Goal-Directed ASP
- Title(参考訳): LLMとゴール指向ASP.NETを用いた信頼性の高いコモンセンス推論型ソーシャルボット
- Authors: Yankai Zeng, Abhiramon Rajashekharan, Kinjal Basu, Huaduo Wang, Joaquín Arias, Gopal Gupta,
- Abstract要約: 自然言語を述語に翻訳するためにLLMモデルを用いたソーシャルボットであるAutoCompanionを提案する。
本稿では, LLM を用いてユーザメッセージを解析し, s(CASP) エンジン出力から応答を生成する手法について述べる。
- 参考スコア(独自算出の注目度): 3.17686396799427
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The development of large language models (LLMs), such as GPT, has enabled the construction of several socialbots, like ChatGPT, that are receiving a lot of attention for their ability to simulate a human conversation. However, the conversation is not guided by a goal and is hard to control. In addition, because LLMs rely more on pattern recognition than deductive reasoning, they can give confusing answers and have difficulty integrating multiple topics into a cohesive response. These limitations often lead the LLM to deviate from the main topic to keep the conversation interesting. We propose AutoCompanion, a socialbot that uses an LLM model to translate natural language into predicates (and vice versa) and employs commonsense reasoning based on Answer Set Programming (ASP) to hold a social conversation with a human. In particular, we rely on s(CASP), a goal-directed implementation of ASP as the backend. This paper presents the framework design and how an LLM is used to parse user messages and generate a response from the s(CASP) engine output. To validate our proposal, we describe (real) conversations in which the chatbot's goal is to keep the user entertained by talking about movies and books, and s(CASP) ensures (i) correctness of answers, (ii) coherence (and precision) during the conversation, which it dynamically regulates to achieve its specific purpose, and (iii) no deviation from the main topic.
- Abstract(参考訳): GPTのような大規模言語モデル(LLM)の開発により、ChatGPTのような、人間の会話をシミュレートする能力に多くの注目を集めているいくつかのソーシャルボットの構築が可能になった。
しかし、会話はゴールによって導かれるものではなく、制御するのが難しい。
さらに, LLMは帰納的推論よりもパターン認識に頼っているため, 解答を混乱させ, 複数のトピックを結合的な応答に統合することが困難である。
これらの制限により、LLMは会話を面白く保つためにメイントピックから逸脱することが多い。
本稿では,LLMモデルを用いて自然言語を述語に翻訳するソーシャルボットAutoCompanionを提案する。
特に、ASPをバックエンドとしてゴール指向の実装であるs(CASP)に依存しています。
本稿では, LLM を用いてユーザメッセージを解析し, s(CASP) エンジン出力から応答を生成する手法について述べる。
提案を検証するために、チャットボットのゴールは、映画や本について話すことでユーザーを楽しませることであり、s(CASP)は確実にする(実際の)会話を記述する。
(i)答えの正しさ
(ii)会話中のコヒーレンス(と精度)は、その特定の目的を達成するために動的に規制され、
三 主な話題から逸脱しないこと。
関連論文リスト
- LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - On Overcoming Miscalibrated Conversational Priors in LLM-based Chatbots [19.423566424346166]
本研究では,Large Language Model (LLM) ベースのチャットボットを用いて推薦システムを構築する。
チャットボットが不特定要求に遭うと、応答が悪くなるのを観察する。
我々は,このような誤った応答傾向は,アノテータを用いたLPM微調整に起因していると推測する。
論文 参考訳(メタデータ) (2024-06-01T15:54:45Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Ain't Misbehavin' -- Using LLMs to Generate Expressive Robot Behavior in
Conversations with the Tabletop Robot Haru [9.2526849536751]
本稿では,大規模言語モデル(LLM)を利用して,表現行動を伴うロボット応答を生成する,完全自動会話システムを提案する。
提案したシステムを用いて,ボランティアが社会ロボットとチャットし,そのフィードバックを分析し,チャットテキストの厳密な誤り解析を行う。
最も否定的なフィードバックは、会話に限られた影響を及ぼす自動音声認識(ASR)エラーによるものだった。
論文 参考訳(メタデータ) (2024-02-18T12:35:52Z) - Zero-Shot Goal-Directed Dialogue via RL on Imagined Conversations [70.7884839812069]
大規模言語モデル(LLM)は、多くの自然言語タスクに対する強力で一般的な解決策として登場した。
しかしながら、言語生成の最も重要なアプリケーションの多くは対話的であり、エージェントは望ましい結果に達するために相手と話し合わなければならない。
本研究では,そのような目標指向対話に対して,RLでLLMを適応させる新しい手法について検討する。
論文 参考訳(メタデータ) (2023-11-09T18:45:16Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - Prompting and Evaluating Large Language Models for Proactive Dialogues:
Clarification, Target-guided, and Non-collaboration [72.04629217161656]
本研究は, 明瞭化, 目標誘導, 非協調対話の3つの側面に焦点をあてる。
LLMの能動性を高めるために,プロアクティブ・チェーン・オブ・ソート・プロンプト方式を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:49:35Z) - Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue
Questions with LLMs [59.74002011562726]
我々は、よりパーソナライズされ魅力的な応答を提供するために、新しい言語的キューに基づく思考の連鎖(textitCue-CoT)を提案する。
中国語と英語の6つのデータセットからなる詳細な対話質問を用いたベンチマークを構築した。
実験により,提案手法は,すべてのデータセットにおいて,テクステルパーフルネスとテクスチタアクセプタビリティの両方の観点から,標準的プロンプト法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-19T16:27:43Z) - Automated Interactive Domain-Specific Conversational Agents that
Understand Human Dialogs [4.212937192948915]
大規模言語モデル(LLM)は、文の意味を真に理解するのではなく、パターンマッチングに依存している。
確実に正しい応答を生成するには、文の意味を「理解」する必要がある。
ASPを利用したAutoConciergeシステムについて述べる。
論文 参考訳(メタデータ) (2023-03-15T21:10:33Z) - CASPR: A Commonsense Reasoning-based Conversational Socialbot [8.652993697080149]
Amazon Alexa Socialbot Challenge 4に対抗すべく設計されたソーシャルボットであるCASPRシステムの設計と開発について報告する。
CASPRの特徴は、完全な"理解"ダイアログに自動コモンセンス推論を使用することである。
ソーシャルボットの主な要件は、ユーザの発話を"理解"し、会話を行うための戦略を持ち、新しい知識を学べることである。
論文 参考訳(メタデータ) (2021-10-11T16:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。