論文の概要: Thanos: Enhancing Conversational Agents with Skill-of-Mind-Infused Large Language Model
- arxiv url: http://arxiv.org/abs/2411.04496v1
- Date: Thu, 07 Nov 2024 07:46:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:39:07.664861
- Title: Thanos: Enhancing Conversational Agents with Skill-of-Mind-Infused Large Language Model
- Title(参考訳): Thanos:Mind-of-infused Large Language Modelによる会話エージェントの強化
- Authors: Young-Jun Lee, Dokyong Lee, Junyoung Youn, Kyeongjin Oh, Ho-Jin Choi,
- Abstract要約: 本稿では,多様な社会的文脈を基盤とした,ミンドのスキル・オブ・アノテートされた会話データセットを提案する。
モデルサイズは1B, 3B, 8B である。
広範な実験により、これらのモデルはミルドのスキル・オブ・ミンド・プロセスの実証に成功し、強力な一般化性を示す。
- 参考スコア(独自算出の注目度): 5.505013339790826
- License:
- Abstract: To increase social bonding with interlocutors, humans naturally acquire the ability to respond appropriately in a given situation by considering which conversational skill is most suitable for the response - a process we call skill-of-mind. For large language model (LLM)-based conversational agents, planning appropriate conversational skills, as humans do, is challenging due to the complexity of social dialogue, especially in interactive scenarios. To address this, we propose a skill-of-mind-annotated conversation dataset, named Multifaceted Skill-of-Mind, which includes multi-turn and multifaceted conversational skills across various interactive scenarios (e.g., long-term, counseling, task-oriented), grounded in diverse social contexts (e.g., demographics, persona, rules of thumb). This dataset consists of roughly 100K conversations. Using this dataset, we introduce a new family of skill-of-mind-infused LLMs, named Thanos, with model sizes of 1B, 3B, and 8B parameters. With extensive experiments, these models successfully demonstrate the skill-of-mind process and exhibit strong generalizability in inferring multifaceted skills across a variety of domains. Moreover, we show that Thanos significantly enhances the quality of responses generated by LLM-based conversational agents and promotes prosocial behavior in human evaluations.
- Abstract(参考訳): インターロケータとの社会的結びつきを高めるため、人間は、会話スキルがどの応答に最も適しているかを考慮し、与えられた状況下で適切に対応できる能力を自然に獲得する。
大規模言語モデル(LLM)に基づく会話エージェントでは、人間と同じように適切な会話スキルを計画することは、特に対話的なシナリオにおいて、社会的対話の複雑さのために困難である。
そこで本研究では,様々な対話シナリオ(例えば,長期的,カウンセリング,タスク指向)にまたがる多面的,多面的,多面的な会話スキルを,多様な社会的状況(例えば,人口統計学,ペルソナ,親指の規則)に根ざした,ミンドのスキル・オブ・ミンド(Multifaceted Skill-of-Mind)という,アノテートされた会話データセットを提案する。
このデータセットはおよそ100万の会話で構成されている。
このデータセットを用いて,1B,3B,8Bパラメータのモデルサイズを持つTanosという,ミンド・オブ・インフュージョンのLLMを新たに導入する。
広範な実験により、これらのモデルは、様々な領域にまたがる多面的スキルの推論において、そのスキル・オブ・マインド・プロセスの実証に成功し、強力な一般化性を示す。
さらに,サノスはLLMをベースとした会話エージェントによる応答の質を著しく向上させ,人間の評価における社会的行動を促進することを示した。
関連論文リスト
- DialSim: A Real-Time Simulator for Evaluating Long-Term Multi-Party Dialogue Understanding of Conversational Agents [13.915753261117901]
リアルタイム対話シミュレータであるDialSimを紹介する。
本シミュレータでは、人気番組のキャラクターの役割をエージェントに割り当てる。
DialSimの主な特徴は、適切な時間内に応答するエージェントの能力を評価することである。
論文 参考訳(メタデータ) (2024-06-19T01:37:10Z) - CloChat: Understanding How People Customize, Interact, and Experience
Personas in Large Language Models [15.915071948354466]
CloChatは、大規模言語モデルにおけるエージェントペルソナの簡単かつ正確なカスタマイズをサポートするインターフェースである。
その結果、参加者はカスタマイズされたエージェントと感情結合を形成し、よりダイナミックな対話を行い、相互作用を持続することに興味を示した。
論文 参考訳(メタデータ) (2024-02-23T11:25:17Z) - Think Before You Speak: Cultivating Communication Skills of Large Language Models via Inner Monologue [73.69510478736483]
大規模言語モデル(LLM)は、流動的で一貫性があり多様な応答を生成する。
しかし、それらは重要な能力、コミュニケーションスキルを欠いている。
本稿は,内的モノローグによるLLMのコミュニケーション能力向上を目的としている。
実験の結果,提案したCSIM戦略はバックボーンモデルを改善し,ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2023-11-13T16:19:42Z) - Affect Recognition in Conversations Using Large Language Models [9.689990547610664]
影響認識は人間のコミュニケーションにおいて重要な役割を担っている。
本研究では,会話における人間の影響を認識するための言語モデル(LLM)の能力について検討する。
論文 参考訳(メタデータ) (2023-09-22T14:11:23Z) - Multi-Party Chat: Conversational Agents in Group Settings with Humans
and Models [39.80729604768669]
我々は,多人数会話において,言語モデルが1つ以上のキャラクタとして機能する能力を評価する。
新しいデータセットであるMultiLIGHTは、グループ設定の大幅な改善に役立ちます。
論文 参考訳(メタデータ) (2023-04-26T21:41:17Z) - PLACES: Prompting Language Models for Social Conversation Synthesis [103.94325597273316]
我々は、プロンプトを用いてソーシャルな会話データセットを合成するために、専門家による会話の小さなセットをコンテキスト内例として使用します。
人工会話の徹底的な評価を,人間による会話と比較して行った。
論文 参考訳(メタデータ) (2023-02-07T05:48:16Z) - TikTalk: A Video-Based Dialogue Dataset for Multi-Modal Chitchat in Real
World [97.58623810402563]
我々はTikTalkと呼ばれるビデオベースのマルチモーダル対話データセットを導入する。
人気ビデオ共有プラットフォームから38Kのビデオを収集し、その下のユーザーから367Kの会話を投稿した。
ユーザーはビデオのマルチモーダルな体験に基づいて自発的な会話をし、現実世界のchitchatコンテキストを再現する。
論文 参考訳(メタデータ) (2023-01-14T10:18:22Z) - Face-to-Face Contrastive Learning for Social Intelligence
Question-Answering [55.90243361923828]
マルチモーダル手法は多くのタスクで技術の状態を設定するが、複雑な対面会話のダイナミクスをモデル化することは困難である。
社会的相互作用をモデル化するグラフニューラルネットワークF2F-CLを提案する。
課題であるSocial-IQデータセットを実験的に評価し、最先端の結果を示す。
論文 参考訳(メタデータ) (2022-07-29T20:39:44Z) - Dynamic Planning in Open-Ended Dialogue using Reinforcement Learning [35.67318830455459]
我々は、強化学習(RL)を用いて、ロボットの対話能力を大規模に活用するリアルタイムかつオープンな対話システムを開発した。
我々の作業は、動的行動空間に特に適するRL技術とSOTA言語モデルを用いて生成された会話状態の簡潔な埋め込みをペアリングする。
論文 参考訳(メタデータ) (2022-07-25T16:12:33Z) - Training Conversational Agents with Generative Conversational Networks [74.9941330874663]
我々は、生成会話ネットワークを使用して、自動的にデータを生成し、社会的会話エージェントを訓練する。
自動メトリクスと人的評価器を用いてTopicalChatのアプローチを評価し、10%のシードデータで100%のデータを使用するベースラインに近いパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-15T21:46:39Z) - Retrieval Augmentation Reduces Hallucination in Conversation [49.35235945543833]
知識に基づく対話のためのループ型ニューラルネットワークアーキテクチャの利用を検討する。
我々は,2つの知識に基づく会話タスクにおいて,最高のモデルが最先端のパフォーマンスを得ることを示す。
論文 参考訳(メタデータ) (2021-04-15T16:24:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。