論文の概要: Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents
- arxiv url: http://arxiv.org/abs/2012.14653v1
- Date: Tue, 29 Dec 2020 08:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 20:34:59.507120
- Title: Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents
- Title(参考訳): もっと社交的になれるか?
タスク指向会話エージェントへのポリテネスと肯定性注入
- Authors: Yi-Chia Wang, Alexandros Papangelis, Runze Wang, Zhaleh Feizollahi,
Gokhan Tur, Robert Kraut
- Abstract要約: 人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
- 参考スコア(独自算出の注目度): 60.27066549589362
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Goal-oriented conversational agents are becoming prevalent in our daily
lives. For these systems to engage users and achieve their goals, they need to
exhibit appropriate social behavior as well as provide informative replies that
guide users through tasks. The first component of the research in this paper
applies statistical modeling techniques to understand conversations between
users and human agents for customer service. Analyses show that social language
used by human agents is associated with greater users' responsiveness and task
completion. The second component of the research is the construction of a
conversational agent model capable of injecting social language into an agent's
responses while still preserving content. The model uses a sequence-to-sequence
deep learning architecture, extended with a social language understanding
element. Evaluation in terms of content preservation and social language level
using both human judgment and automatic linguistic measures shows that the
model can generate responses that enable agents to address users' issues in a
more socially appropriate way.
- Abstract(参考訳): 目標指向の会話エージェントが日常生活で普及しています。
これらのシステムがユーザをエンゲージし、目標を達成するためには、適切な社会的行動を示すとともに、ユーザをタスクを通じて導く情報的応答を提供する必要がある。
本研究の第1のコンポーネントは,ユーザとカスタマサービスにおけるヒューマンエージェント間の会話を理解するために,統計的モデリング手法を適用している。
分析によると、人間のエージェントが使用する社会言語は、より大きなユーザの応答性とタスク完了と関連している。
研究の第2の構成要素は、コンテンツを保存しながら、エージェントの応答に社会言語を注入できる会話エージェントモデルの構築である。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
関連論文リスト
- Interactive Dialogue Agents via Reinforcement Learning on Hindsight Regenerations [58.65755268815283]
多くの実際の対話は対話的であり、つまりエージェントの発話が会話の相手に影響を与えるか、情報を引き出すか、意見を変えるかである。
この事実を利用して、既存の最適データを書き直し、拡張し、オフライン強化学習(RL)を介してトレーニングする。
実際の人間によるユーザ調査の結果、我々のアプローチは既存の最先端の対話エージェントを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-11-07T21:37:51Z) - AgentSense: Benchmarking Social Intelligence of Language Agents through Interactive Scenarios [38.878966229688054]
本稿では,対話型シナリオを通して言語エージェントのソーシャルインテリジェンスをベンチマークするAgensSenseを紹介する。
ドラマティック理論に基づいて、エージェントセンスは、広範なスクリプトから構築された1,225の多様な社会的シナリオを作成するためにボトムアップアプローチを採用している。
我々はERG理論を用いて目標を分析し、包括的な実験を行う。
以上の結果から,LPMは複雑な社会シナリオ,特に高レベルの成長ニーズにおいて,目標達成に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-25T07:04:16Z) - SocialBench: Sociality Evaluation of Role-Playing Conversational Agents [85.6641890712617]
大規模言語モデル(LLM)は、様々なAI対話エージェントの開発を進めてきた。
SocialBenchは、ロールプレイングの会話エージェントの社会的性を個人レベルとグループレベルで評価するために設計された最初のベンチマークである。
個人レベルで優れたエージェントは,集団レベルでの熟練度を示唆しない。
論文 参考訳(メタデータ) (2024-03-20T15:38:36Z) - SOTOPIA-$π$: Interactive Learning of Socially Intelligent Language Agents [73.35393511272791]
本稿では,対話型学習手法であるSOTOPIA-$pi$を提案する。
この手法は,大規模言語モデル(LLM)の評価に基づいて,フィルタリングされた社会的相互作用データに対する行動クローニングと自己強化トレーニングを活用する。
論文 参考訳(メタデータ) (2024-03-13T17:17:48Z) - CAMEL: Communicative Agents for "Mind" Exploration of Large Language
Model Society [58.04479313658851]
本稿では,コミュニケーションエージェント間の自律的協調を支援するスケーラブルな手法の構築の可能性について検討する。
本稿では,ロールプレイングという新しいコミュニケーションエージェントフレームワークを提案する。
コントリビューションには、新しいコミュニケーティブエージェントフレームワークの導入、マルチエージェントシステムの協調行動や能力を研究するためのスケーラブルなアプローチの提供などが含まれます。
論文 参考訳(メタデータ) (2023-03-31T01:09:00Z) - SocialAI: Benchmarking Socio-Cognitive Abilities in Deep Reinforcement
Learning Agents [23.719833581321033]
人間との社会的相互作用に参加することができる、具体化された自律エージェントを構築することは、AIの主要な課題の1つだ。
人間レベルのAIを目指すためには、より広範な社会的スキルが必要である、と私たちは主張する。
DRLエージェントの社会的スキル獲得を評価するためのベンチマークであるSocialAIを提案する。
論文 参考訳(メタデータ) (2021-07-02T10:39:18Z) - Towards Socially Intelligent Agents with Mental State Transition and
Human Utility [97.01430011496576]
対話エージェントに精神状態と実用性モデルを取り入れることを提案する。
ハイブリッド精神状態は、対話とイベント観察の両方から情報を抽出する。
ユーティリティモデルは、クラウドソースのソーシャルコモンセンスデータセットから人間の好みを学習するランキングモデルである。
論文 参考訳(メタデータ) (2021-03-12T00:06:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。