論文の概要: The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding
- arxiv url: http://arxiv.org/abs/2209.07800v1
- Date: Fri, 16 Sep 2022 09:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-19 12:33:45.879184
- Title: The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding
- Title(参考訳): 真実と真実のみ - データフロー変換と制約付きデコードによる忠実で制御可能な対話応答生成
- Authors: Hao Fang, Anusha Balakrishnan, Harsh Jhamtani, John Bufe, Jean
Crawford, Jayant Krishnamurthy, Adam Pauls, Jason Eisner, Jacob Andreas, Dan
Klein
- Abstract要約: 現実世界の対話システムでは、生成された応答はいくつかのインターロック制約を満たす必要がある。
言語生成における2つの主要なパラダイム – ニューラル言語モデリングとルールベースの生成 – はいずれも,これらの制約を満たすのに苦労している。
両手法の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
- 参考スコア(独自算出の注目度): 65.34601470417967
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In a real-world dialogue system, generated responses must satisfy several
interlocking constraints: being informative, truthful, and easy to control. The
two predominant paradigms in language generation -- neural language modeling
and rule-based generation -- both struggle to satisfy these constraints. Even
the best neural models are prone to hallucination and omission of information,
while existing formalisms for rule-based generation make it difficult to write
grammars that are both flexible and fluent. We describe a hybrid architecture
for dialogue response generation that combines the strengths of both
approaches. This architecture has two components. First, a rule-based content
selection model defined using a new formal framework called dataflow
transduction, which uses declarative rules to transduce a dialogue agent's
computations (represented as dataflow graphs) into context-free grammars
representing the space of contextually acceptable responses. Second, a
constrained decoding procedure that uses these grammars to constrain the output
of a neural language model, which selects fluent utterances. The resulting
system outperforms both rule-based and learned approaches in human evaluations
of fluency, relevance, and truthfulness.
- Abstract(参考訳): 現実世界の対話システムでは、生成された応答は、情報的、真実的、制御が容易ないくつかのインターロック制約を満たす必要がある。
言語生成における2つの主要なパラダイム – ニューラル言語モデリングとルールベースの生成 – はどちらも,これらの制約を満たすのに苦労している。
最良のニューラルモデルでさえ、情報の幻覚と欠落を招きやすいが、ルールベースの生成のための既存の形式化は、柔軟で流動的な文法を書くのを難しくする。
両手法の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
このアーキテクチャには2つのコンポーネントがある。
まず、宣言的ルールを使用して対話エージェントの計算(データフローグラフとして表される)を文脈的に許容される応答の空間を表す文脈自由文法に変換する、dataflow transductionと呼ばれる新しい形式的フレームワークを使用して定義されたルールベースのコンテンツ選択モデル。
第二に、これらの文法を用いてニューラルネットワークモデルの出力を制約する制約付き復号処理で、流行った発話を選択する。
結果として得られるシステムは、規則に基づくアプローチと学習されたアプローチの両方で、流布、関連性、真実性の評価に優れる。
関連論文リスト
- Learning Phonotactics from Linguistic Informants [54.086544221761486]
本モデルでは,情報理論的なポリシーの1つに従って,データポイントを反復的に選択または合成する。
提案モデルでは,情報提供者を問う項目の選択に使用する情報理論のポリシーが,完全教師付きアプローチに匹敵する,あるいはそれ以上の効率性が得られることがわかった。
論文 参考訳(メタデータ) (2024-05-08T00:18:56Z) - Text2Data: Low-Resource Data Generation with Textual Control [104.38011760992637]
自然言語は、人間が機械とシームレスに対話するための共通かつ直接的な制御信号として機能する。
ラベルのないデータを用いて教師なし拡散モデルを用いて基礎となるデータ分布を理解する新しいアプローチであるText2Dataを提案する。
制御性を確保し、破滅的な忘れを効果的に防止する、新しい制約最適化ベースの学習目標を通じて制御可能な微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - An xAI Approach for Data-to-Text Processing with ASP [39.58317527488534]
本稿では,xAI要求に準拠するフレームワークを提案する。
テキスト記述は階層的に整理され、テキストがさらに詳細で豊かになるトップダウン構造になっている。
自然言語記述の構造の生成も論理規則によって管理される。
論文 参考訳(メタデータ) (2023-08-30T09:09:09Z) - Pre-training Multi-party Dialogue Models with Latent Discourse Inference [85.9683181507206]
我々は、多人数対話の会話構造、すなわち、各発話が応答する相手を理解するモデルを事前訓練する。
ラベル付きデータを完全に活用するために,談話構造を潜在変数として扱い,それらを共同で推論し,談話認識モデルを事前学習することを提案する。
論文 参考訳(メタデータ) (2023-05-24T14:06:27Z) - MURMUR: Modular Multi-Step Reasoning for Semi-Structured Data-to-Text
Generation [102.20036684996248]
多段階推論を用いた半構造化データからテキストを生成するための,ニューロシンボリックなモジュラーアプローチであるMURMURを提案する。
WebNLG や LogicNLG のような2つのデータ・テキスト生成タスクについて実験を行った。
論文 参考訳(メタデータ) (2022-12-16T17:36:23Z) - Collocation2Text: Controllable Text Generation from Guide Phrases in
Russian [0.0]
Collocation2Textはロシア語で自動制御可能なテキスト生成のためのプラグイン・アンド・プレイ方式である。
この手法は、自己回帰言語ruGPT-3モデルと自己符号化言語ruRoBERTaモデルという2つの相互作用モデルに基づいている。
提案手法を用いてニュース記事を生成する実験は,自動生成された流布文に対して有効性を示した。
論文 参考訳(メタデータ) (2022-06-18T17:10:08Z) - An End-to-end Chinese Text Normalization Model based on Rule-guided
Flat-Lattice Transformer [37.0774363352316]
本稿では,漢字を直接入力として受け入れるエンドツーエンドの中国語テキスト正規化モデルを提案する。
また、中国語のテキスト正規化のための、初めて一般公開された大規模データセットもリリースしました。
論文 参考訳(メタデータ) (2022-03-31T11:19:53Z) - Context Matters in Semantically Controlled Language Generation for
Task-oriented Dialogue Systems [6.1478669848771546]
本研究は,タスク指向対話における文脈言語生成を実現するために,事前学習モデルによって符号化された対話履歴情報と,現在のシステム発話の意味表現とを組み合わせる。
我々は、事前学習されたマルチコンテキスト・コンベRTモデルを、スクラッチから訓練されたモデルにおける文脈表現に利用し、事前学習されたGPT-2から適応したモデルにおいて、直前のユーザ発話を文脈生成に活用する。
論文 参考訳(メタデータ) (2021-11-28T11:48:02Z) - A Controllable Model of Grounded Response Generation [122.7121624884747]
現在のエンドツーエンドのニューラルネットワークモデルは、応答生成プロセスにセマンティックコントロールを課す柔軟性を本質的に欠いている。
我々は制御可能な接地応答生成(CGRG)と呼ばれるフレームワークを提案する。
このフレームワークを用いることで、会話のようなRedditデータセットでトレーニングされた、新しいインダクティブアテンション機構を備えたトランスフォーマーベースのモデルが、強力な生成ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-05-01T21:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。