論文の概要: Neural Conversation Models and How to Rein Them in: A Survey of Failures
and Fixes
- arxiv url: http://arxiv.org/abs/2308.06095v1
- Date: Fri, 11 Aug 2023 12:07:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 14:03:20.149455
- Title: Neural Conversation Models and How to Rein Them in: A Survey of Failures
and Fixes
- Title(参考訳): ニューラルな会話モデルとテーマの再定義:失敗と修正に関する調査
- Authors: Fabian Galetzka, Anne Beyer, David Schlangen
- Abstract要約: 最近の条件付き言語モデルは、しばしば流動的な方法で、あらゆる種類のテキストソースを継続することができる。
言語の観点から言えば、会話への貢献は高い。
最近のアプローチでは、基礎となる言語モデルを様々な介入ポイントでテームしようと試みている。
- 参考スコア(独自算出の注目度): 17.489075240435348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent conditional language models are able to continue any kind of text
source in an often seemingly fluent way. This fact encouraged research in the
area of open-domain conversational systems that are based on powerful language
models and aim to imitate an interlocutor by generating appropriate
contributions to a written dialogue. From a linguistic perspective, however,
the complexity of contributing to a conversation is high. In this survey, we
interpret Grice's maxims of cooperative conversation from the perspective of
this specific research area and systematize the literature under the aspect of
what makes a contribution appropriate: A neural conversation model has to be
fluent, informative, consistent, coherent, and follow social norms. In order to
ensure these qualities, recent approaches try to tame the underlying language
models at various intervention points, such as data, training regime or
decoding. Sorted by these categories and intervention points, we discuss
promising attempts and suggest novel ways for future research.
- Abstract(参考訳): 最近の条件付き言語モデルは、しばしば流動的な方法であらゆる種類のテキストソースを継続することができる。
この事実は、強力な言語モデルに基づくオープンドメイン会話システムの研究を奨励し、書かれた対話に適切な貢献をすることでインターロケータを模倣することを目指している。
しかし、言語的な観点では、会話への貢献の複雑さが高い。
本調査では、この特定の研究領域の観点からGrice氏の協力的会話の最大度を解釈し、コントリビューションの適切な側面として文献を体系化する。
これらの品質を確保するため、最近のアプローチでは、データ、トレーニングレジーム、デコードなど、さまざまな介入点において基礎となる言語モデルを緩和しようとしている。
これらのカテゴリと介入点から,今後の研究に期待できる試みと新たな方法を提案する。
関連論文リスト
- WavChat: A Survey of Spoken Dialogue Models [66.82775211793547]
GPT-4oのようなシステムで実証された音声対話モデルの最近の進歩は、音声領域において大きな注目を集めている。
これらの高度な音声対話モデルは、音声、音楽、その他の音声関連の特徴を理解するだけでなく、音声のスタイリスティックな特徴や音節的な特徴も捉える。
音声対話システムの進歩にもかかわらず、これらのシステムを体系的に組織化し分析する包括的調査が欠如している。
論文 参考訳(メタデータ) (2024-11-15T04:16:45Z) - Dialogue Quality and Emotion Annotations for Customer Support
Conversations [7.218791626731783]
本稿では、二言語的顧客サポート会話の文脈における感情と会話品質に対する全体論的アノテーションアプローチを提案する。
これは、テキスト分類モデルの開発に、ユニークで価値のあるリソースを提供する。
論文 参考訳(メタデータ) (2023-11-23T10:56:14Z) - Multi-turn Dialogue Comprehension from a Topic-aware Perspective [70.37126956655985]
本稿では,話題認識の観点から,マルチターン対話をモデル化することを提案する。
対話文のセグメント化アルゴリズムを用いて、対話文を教師なしの方法でトピック集中フラグメントに分割する。
また,トピックセグメントを処理要素として扱う新しいモデルとして,トピック認識デュアルアテンションマッチング(TADAM)ネットワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T11:03:55Z) - Feature Interactions Reveal Linguistic Structure in Language Models [2.0178765779788495]
本研究では,ポストホック解釈における特徴帰属手法の文脈における特徴的相互作用について検討した。
私たちは、正規言語分類タスクで完璧にモデルをトレーニングする灰色のボックスの方法論を開発します。
特定の構成下では、いくつかの手法が実際にモデルが獲得した文法規則を明らかにすることができることを示す。
論文 参考訳(メタデータ) (2023-06-21T11:24:41Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
自然言語を理解し、人間と対話するための訓練機械は、人工知能の解明と本質的なタスクである。
本稿では,対話理解タスクにおける対話モデリングの技術的視点から,過去の手法を概観する。
さらに,対話シナリオにおけるPrLMの強化に使用される対話関連事前学習手法を分類する。
論文 参考訳(メタデータ) (2021-10-11T03:52:37Z) - "How Robust r u?": Evaluating Task-Oriented Dialogue Systems on Spoken
Conversations [87.95711406978157]
本研究は、音声タスク指向会話における新しいベンチマークを示す。
マルチドメイン対話状態追跡と知識基底型対話モデルについて検討する。
我々のデータセットは,タスク指向対話システムの音声によるベンチマークを可能にする。
論文 参考訳(メタデータ) (2021-09-28T04:51:04Z) - Continuity of Topic, Interaction, and Query: Learning to Quote in Online
Conversations [23.214585012203084]
本研究は,オンライン会話における引用の自動生成について研究する。
引用でコンテキストを継続するために、エンコーダ-デコーダニューラルフレームワークが使用される。
英語と中国語の2つの大規模データセットの実験結果。
論文 参考訳(メタデータ) (2021-06-18T03:38:48Z) - Advances in Multi-turn Dialogue Comprehension: A Survey [51.215629336320305]
対話モデリングの観点から,従来の手法を検討した。
対話理解タスクで広く使用されている対話モデリングの3つの典型的なパターンについて議論します。
論文 参考訳(メタデータ) (2021-03-04T15:50:17Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Explainable and Discourse Topic-aware Neural Language Understanding [22.443597046878086]
トピックモデルと言語モデルの結婚は、文章以外の文書レベルのコンテキストのより広いソースに言語理解を公開する。
既存のアプローチでは、潜在する文書のトピックの比率を取り入れ、文書の文の話題の言説を無視する。
本稿では,潜時と説明可能なトピックと,文レベルでの話題会話を併用したニューラルコンポジット言語モデルを提案する。
論文 参考訳(メタデータ) (2020-06-18T15:53:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。