論文の概要: Think Before You Speak: Explicitly Generating Implicit Commonsense
Knowledge for Response Generation
- arxiv url: http://arxiv.org/abs/2110.08501v4
- Date: Mon, 11 Sep 2023 21:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 18:20:20.329172
- Title: Think Before You Speak: Explicitly Generating Implicit Commonsense
Knowledge for Response Generation
- Title(参考訳): 話す前に考える - 応答生成のための暗黙の常識知識を明示的に生成する
- Authors: Pei Zhou, Karthik Gopalakrishnan, Behnam Hedayatnia, Seokhwan Kim, Jay
Pujara, Xiang Ren, Yang Liu, Dilek Hakkani-Tur
- Abstract要約: 常識のような暗黙の知識は、人間の会話を流動させる鍵となる。
本稿では、暗黙のコモンセンス知識(思考)を最初に外部化するための生成的アプローチであるThink-Before-Speaking(TBS)を紹介し、この知識を用いて応答(発話)を生成する。
実証実験の結果、TBSモデルは、ほとんどの自動測定値において、エンドツーエンドおよび知識強化されたRGベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 45.86667254934832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit knowledge, such as common sense, is key to fluid human
conversations. Current neural response generation (RG) models are trained to
generate responses directly, omitting unstated implicit knowledge. In this
paper, we present Think-Before-Speaking (TBS), a generative approach to first
externalize implicit commonsense knowledge (think) and use this knowledge to
generate responses (speak). We expect that externalizing implicit knowledge
allows more efficient learning, produces more informative responses, and
enables more explainable models. We analyze different choices to collect
knowledge-aligned dialogues, represent implicit knowledge, and transition
between knowledge and dialogues. Empirical results show TBS models outperform
end-to-end and knowledge-augmented RG baselines on most automatic metrics and
generate more informative, specific, and commonsense-following responses, as
evaluated by human annotators. TBS also generates knowledge that makes sense
and is relevant to the dialogue around 85\% of the time.
- Abstract(参考訳): 常識のような暗黙の知識は、人間の会話を流動化する鍵となる。
現在のニューラルレスポンス生成(RG)モデルは、暗黙の知識を省略して、直接応答を生成するように訓練されている。
本稿では、暗黙のコモンセンス知識(思考)を最初に外部化するための生成的アプローチであるThink-Before-Speaking(TBS)について述べる。
暗黙的知識の外部化はより効率的な学習を可能にし、より情報的な反応をもたらし、より説明可能なモデルを可能にすることを期待する。
異なる選択を分析し,知識に合わせた対話を収集し,暗黙の知識を表現し,知識と対話の遷移を行う。
実験の結果,TBSモデルは,ほとんどの自動測定値において,エンド・ツー・エンドおよびナレッジ・増強されたRGベースラインを上回り,より情報的,具体的,コモンセンス・フォローング応答を生成することがわかった。
TBSは意味のある知識も生成し、その85%の確率で対話に関係している。
関連論文リスト
- SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - KPT: Keyword-guided Pre-training for Grounded Dialog Generation [82.68787152707455]
KPT(Guided Pre-Training)は,グラウンドドダイアログ生成のための自己教師付き事前学習手法である。
具体的には、事前訓練された言語モデルを用いて、ダイアログ内の最も不確実なトークンをキーワードとして抽出する。
我々は,対話行為,知識グラフ,ペルソナ記述,ウィキペディアの文節など,数発の知識ベース生成タスクについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-12-04T04:05:01Z) - RHO ($\rho$): Reducing Hallucination in Open-domain Dialogues with
Knowledge Grounding [57.46495388734495]
本稿では、知識グラフ(KG)からリンクされたエンティティと関係述語を表現したRHO(rho$)を提案する。
本稿では,(1)テキスト埋め込みと対応するKG埋め込みを組み合わせるための局所知識基盤,(2)注目機構を介してRHOにマルチホップ推論能力を持たせるためのグローバル知識基盤を提案する。
論文 参考訳(メタデータ) (2022-12-03T10:36:34Z) - RT-KGD: Relation Transition Aware Knowledge-Grounded Dialogue Generation [20.37399983466163]
関係遷移を考慮した知識包含対話生成モデル(RT-KGD)を提案する。
具体的には、人間会話の潜在論理に触発され、対話レベルの関係遷移規則とターンレベルのエンティティ意味情報を統合する。
このように、知識間の相互作用は、適切な知識を予測し、一貫性のある応答を生成するための豊富な手がかりを生み出すと考えられる。
論文 参考訳(メタデータ) (2022-07-17T16:07:38Z) - Knowledge-Grounded Dialogue with Reward-Driven Knowledge Selection [1.1633929083694388]
Knoformerは強化学習に基づく対話応答生成モデルである。
知識プールから1つ以上の関連する知識を自動的に選択することができ、トレーニング中に知識ラベルを必要としない。
論文 参考訳(メタデータ) (2021-08-31T08:53:08Z) - Zero-Resource Knowledge-Grounded Dialogue Generation [29.357221039484568]
本稿では,文脈と応答をブリッジする知識と,その知識を潜在変数として表現する方法を提案する。
また,本モデルでは,知識基盤の対話に頼っている最先端の手法と同等の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-08-29T05:48:32Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。