論文の概要: Response Generation in Longitudinal Dialogues: Which Knowledge
Representation Helps?
- arxiv url: http://arxiv.org/abs/2305.15908v1
- Date: Thu, 25 May 2023 10:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 15:56:27.150360
- Title: Response Generation in Longitudinal Dialogues: Which Knowledge
Representation Helps?
- Title(参考訳): 縦対話における応答生成:どの知識表現が役に立つか?
- Authors: Seyed Mahed Mousavi, Simone Caldarella, Giuseppe Riccardi
- Abstract要約: 縦対話(LD)は人間と機械の対話システムにおいて最も難しいタイプの対話である。
LDにおける応答生成の課題について検討する。
LDのデータセットを用いて2つのPLM、GePpeTtoとiT5を微調整する。
- 参考スコア(独自算出の注目度): 3.0874448550989673
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Longitudinal Dialogues (LD) are the most challenging type of conversation for
human-machine dialogue systems. LDs include the recollections of events,
personal thoughts, and emotions specific to each individual in a sparse
sequence of dialogue sessions. Dialogue systems designed for LDs should
uniquely interact with the users over multiple sessions and long periods of
time (e.g. weeks), and engage them in personal dialogues to elaborate on their
feelings, thoughts, and real-life events. In this paper, we study the task of
response generation in LDs. We evaluate whether general-purpose Pre-trained
Language Models (PLM) are appropriate for this purpose. We fine-tune two PLMs,
GePpeTto (GPT-2) and iT5, using a dataset of LDs. We experiment with different
representations of the personal knowledge extracted from LDs for grounded
response generation, including the graph representation of the mentioned events
and participants. We evaluate the performance of the models via automatic
metrics and the contribution of the knowledge via the Integrated Gradients
technique. We categorize the natural language generation errors via human
evaluations of contextualization, appropriateness and engagement of the user.
- Abstract(参考訳): 縦対話(LD)は人間と機械の対話システムにおいて最も困難な対話である。
ldには、イベントの思い出、個人的な考え、会話セッションのスパースなシーケンス内の各個人固有の感情が含まれる。
LD用に設計された対話システムは、複数のセッションと長時間(例えば数週間)にわたってユーザーと一意に対話し、感情や思考、実生活の出来事を詳しく知るために、個人対話に携わるべきである。
本稿では,LDにおける応答生成の課題について考察する。
この目的に汎用事前学習言語モデル(plm)が適切かどうかを評価する。
LDのデータセットを用いて2つのPLM、GePpeTto(GPT-2)とiT5を微調整する。
我々は,LDから抽出した個人的知識の異なる表現を実験し,対象イベントや参加者のグラフ表現を含む応答生成を行う。
本稿では,自動メトリクスによるモデルの性能評価と,統合勾配法による知識の寄与について述べる。
コンテキスト化,適切性,ユーザの関与度に関する人間評価を通じて,自然言語生成エラーを分類する。
関連論文リスト
- Hello Again! LLM-powered Personalized Agent for Long-term Dialogue [63.65128176360345]
モデルに依存しない長期対話エージェント(LD-Agent)を導入する。
イベント認識、ペルソナ抽出、応答生成のための3つの独立した調整可能なモジュールが組み込まれている。
LD-Agentの有効性, 汎用性, クロスドメイン性について実験的に検証した。
論文 参考訳(メタデータ) (2024-06-09T21:58:32Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Attribution and Alignment: Effects of Local Context Repetition on
Utterance Production and Comprehension in Dialogue [6.886248462185439]
繰り返しは通常、言語モデル世代を評価する際に罰せられる。
人間はローカルとパートナーの特定の繰り返しを使用し、それらは人間のユーザーによって好まれ、対話におけるコミュニケーションをより成功させる。
本研究では, (a) 言語モデルが対話における人間的な繰り返しのレベルを生成するかどうか, (b) 理解中に使用する語彙再使用に関連する処理機構について検討する。
論文 参考訳(メタデータ) (2023-11-21T23:50:33Z) - DialogBench: Evaluating LLMs as Human-like Dialogue Systems [16.997134341787486]
大規模言語モデル(LLM)は、命令チューニングを活用することで、新しい対話機能において画期的なブレークスルーを達成している。
本稿では,12の対話タスクを含む対話評価ベンチマークであるDialogBenchを提案する。
インストラクションチューニングはLLMの人間的類似性をある程度改善するが、ほとんどのLLMは人間的な対話システムとして改善の余地が十分にある。
論文 参考訳(メタデータ) (2023-11-03T02:59:56Z) - BotChat: Evaluating LLMs' Capabilities of Having Multi-Turn Dialogues [72.65163468440434]
本報告では,人間型マルチターンチャットのための既存大規模言語モデルの予備的評価を行う。
そこで我々は,ChatSEEDに基づくマルチターン対話を発話によって生成する大規模言語モデル(LLM)を提案する。
GPT-4は優れた品質の人型多元対話を生成できるが、その性能は著しく上回っている。
論文 参考訳(メタデータ) (2023-10-20T16:53:51Z) - PK-ICR: Persona-Knowledge Interactive Context Retrieval for Grounded
Dialogue [23.232025942333387]
ペルソナとナレッジ デュアルコンテキスト識別(ペルソナとナレッジ コンテクストの同定)は、与えられた対話において、ペルソナとナレッジを共同で識別するタスクである。
我々は,対話のすべての文脈を同時に活用する新しい接地検索手法を開発した。
論文 参考訳(メタデータ) (2023-02-13T20:27:26Z) - A Mixture-of-Expert Approach to RL-based Dialogue Management [56.08449336469477]
我々は、強化学習を用いて、近視性(一般的な発話の出力)を回避し、全体的なユーザ満足度を最大化する対話エージェントを開発する。
既存のRLアプローチのほとんどは、単語レベルでエージェントを訓練するので、中規模の語彙であっても、非常に複雑なアクション空間を扱う必要がある。
i)会話履歴の多様な意味を学習できるLMと、(ii)対応する発話を生成できる専門的なLM(または専門家)からなる、新しい専門家言語モデル(MoE-LM)を用いたRLベースのDMを開発する。
論文 参考訳(メタデータ) (2022-05-31T19:00:41Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - TOD-BERT: Pre-trained Natural Language Understanding for Task-Oriented
Dialogue [113.45485470103762]
本研究では,言語モデリングのためのタスク指向対話データセットを,人間とマルチターンの9つに統合する。
事前学習時の対話動作をモデル化するために,ユーザトークンとシステムトークンをマスク付き言語モデルに組み込む。
論文 参考訳(メタデータ) (2020-04-15T04:09:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。