論文の概要: Dialogue Generation on Infrequent Sentence Functions via Structured
Meta-Learning
- arxiv url: http://arxiv.org/abs/2010.01495v1
- Date: Sun, 4 Oct 2020 07:13:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 02:58:14.131741
- Title: Dialogue Generation on Infrequent Sentence Functions via Structured
Meta-Learning
- Title(参考訳): 構造化メタラーニングによる低頻度文の対話生成
- Authors: Yifan Gao, Piji Li, Wei Bi, Xiaojiang Liu, Michael R. Lyu, Irwin King
- Abstract要約: 文文は文の発声におけるコミュニケーション目的を示す重要な言語的特徴である。
文関数を会話に組み込むと、生成した応答の品質が改善される。
しかし, 異なる種類の細粒度文関数に対する発話数は極めて不均衡である。
- 参考スコア(独自算出の注目度): 94.38532755123323
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Sentence function is an important linguistic feature indicating the
communicative purpose in uttering a sentence. Incorporating sentence functions
into conversations has shown improvements in the quality of generated
responses. However, the number of utterances for different types of
fine-grained sentence functions is extremely imbalanced. Besides a small number
of high-resource sentence functions, a large portion of sentence functions is
infrequent. Consequently, dialogue generation conditioned on these infrequent
sentence functions suffers from data deficiency. In this paper, we investigate
a structured meta-learning (SML) approach for dialogue generation on infrequent
sentence functions. We treat dialogue generation conditioned on different
sentence functions as separate tasks, and apply model-agnostic meta-learning to
high-resource sentence functions data. Furthermore, SML enhances meta-learning
effectiveness by promoting knowledge customization among different sentence
functions but simultaneously preserving knowledge generalization for similar
sentence functions. Experimental results demonstrate that SML not only improves
the informativeness and relevance of generated responses, but also can generate
responses consistent with the target sentence functions.
- Abstract(参考訳): 文機能は、文を発話する際のコミュニケーション目的を示す重要な言語特徴である。
文関数を会話に組み込むと、生成した応答の品質が改善される。
しかし, 異なる種類の細粒度文関数に対する発話数は極めて不均衡である。
少数の高資源文機能に加えて、文機能の大部分は不十分である。
したがって、これらの不適切な文機能に基づく対話生成は、データ不足に苦しむ。
本稿では,少ない文関数を用いた対話生成のための構造化メタラーニング(SML)手法について検討する。
異なる文関数に条件付けられた対話生成を分離したタスクとして扱い、高資源文関数データにモデル非依存なメタラーニングを適用する。
さらに、SMLは、異なる文関数間の知識カスタマイズを促進することでメタラーニングの有効性を高めるとともに、類似した文関数に対する知識一般化を同時に保存する。
実験結果から、SMLは、生成した応答の情報性や関連性を向上するだけでなく、目的の文関数に整合した応答も生成できることが示された。
関連論文リスト
- Do LLMs suffer from Multi-Party Hangover? A Diagnostic Approach to Addressee Recognition and Response Selection in Conversations [11.566214724241798]
本研究では,会話の特定の構造的属性間でのモデル性能を調査する手法を提案する。
我々はモデルの弱点を診断するために、応答選択とアドレス認識タスクに焦点をあてる。
その結果、応答選択は会話のテキストの内容に依存しており、アドレス認識ではその構造的次元を捉える必要があることがわかった。
論文 参考訳(メタデータ) (2024-09-27T10:07:33Z) - Can LLMs Understand the Implication of Emphasized Sentences in Dialogue? [64.72966061510375]
強調は人間のコミュニケーションにおいて重要な要素であり、対話における純粋テキストを超えて話者の意図と含意を示す。
本稿では,強調の意味を抽出した強調注釈付き対話サンプルを用いたベンチマークであるEmphasized-Talkを紹介する。
オープンソースと商用の両方で様々な大規模言語モデル(LLM)を評価し,その性能を重要視して評価する。
論文 参考訳(メタデータ) (2024-06-16T20:41:44Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Paralinguistics-Enhanced Large Language Modeling of Spoken Dialogue [71.15186328127409]
パラリンGPT(Paralin GPT)
モデルは、シリアライズされたマルチタスクフレームワーク内の入力プロンプトとして、テキスト、音声埋め込み、およびパラ言語属性の会話コンテキストを取る。
音声対話データセットとして,感情ラベルをパラ言語属性として含むSwitchboard-1コーパスを利用する。
論文 参考訳(メタデータ) (2023-12-23T18:14:56Z) - Joint Modelling of Spoken Language Understanding Tasks with Integrated
Dialog History [30.20353302347147]
本研究では,発話の意図,対話行動,話者の役割,感情を共同で予測するために,対話コンテキストを学習する新しいモデルアーキテクチャを提案する。
本実験は,タスク固有分類器と類似した結果が得られることを示す。
論文 参考訳(メタデータ) (2023-05-01T16:26:18Z) - Improve Retrieval-based Dialogue System via Syntax-Informed Attention [46.79601705850277]
文内構文情報と文間構文情報の両方を考慮したSIA, Syntax-Informed Attentionを提案する。
提案手法を広範に使用した3つのベンチマークで評価し,対話応答選択における本手法の一般的な優位性を示す実験結果を得た。
論文 参考訳(メタデータ) (2023-03-12T08:14:16Z) - DEIM: An effective deep encoding and interaction model for sentence
matching [0.0]
本稿では,ディープエンコーディングとインタラクションに基づく文マッチング手法を提案する。
エンコーダ層では、1つの文を符号化する過程で他の文の情報を参照し、その後、アルゴリズムを用いて情報を融合する。
インタラクション層では、双方向の注意機構と自己注意機構を用いて深い意味情報を得る。
論文 参考訳(メタデータ) (2022-03-20T07:59:42Z) - Narrative Incoherence Detection [76.43894977558811]
本稿では,文間セマンティック理解のための新たなアリーナとして,物語不整合検出の課題を提案する。
複数文の物語を考えると、物語の流れに意味的な矛盾があるかどうかを決定します。
論文 参考訳(メタデータ) (2020-12-21T07:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。