論文の概要: Eliciting Knowledge from Large Pre-Trained Models for Unsupervised
Knowledge-Grounded Conversation
- arxiv url: http://arxiv.org/abs/2211.01587v1
- Date: Thu, 3 Nov 2022 04:48:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 13:18:44.300756
- Title: Eliciting Knowledge from Large Pre-Trained Models for Unsupervised
Knowledge-Grounded Conversation
- Title(参考訳): 教師なし会話のための大規模事前学習モデルからの知識の抽出
- Authors: Yanyang Li, Jianqiao Zhao, Michael R. Lyu, Liwei Wang
- Abstract要約: 大規模事前学習の最近の進歩は、原文から知識を学ぶ可能性のある大きなモデルを提供する。
大規模モデルから最良の知識を引き出す様々な手法を提案する。
私たちの人間による研究は、幻覚はあるものの、大きなモデルは常識を出力できるという独特な利点を誇示していることを示している。
- 参考スコア(独自算出の注目度): 45.95864432188745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large-scale pre-training provide large models with the
potential to learn knowledge from the raw text. It is thus natural to ask
whether it is possible to leverage these large models as knowledge bases for
downstream tasks. In this work, we answer the aforementioned question in
unsupervised knowledge-grounded conversation. We explore various methods that
best elicit knowledge from large models. Our human study indicates that, though
hallucinations exist, large models post the unique advantage of being able to
output common sense and summarize facts that cannot be directly retrieved from
the search engine. To better exploit such generated knowledge in dialogue
generation, we treat the generated knowledge as a noisy knowledge source and
propose the posterior-based reweighing as well as the noisy training strategy.
Empirical results on two benchmarks show advantages over the state-of-the-art
methods.
- Abstract(参考訳): 大規模事前学習の最近の進歩は、原文から知識を学ぶ可能性のある大きなモデルを提供する。
したがって、下流タスクの知識ベースとしてこれらの大きなモデルを活用できるかどうかを問うことは自然である。
本研究では,教師なしの知識に基づく会話において,上記の質問に答える。
我々は,大規模モデルから知識を引き出す手法を探究する。
人間の研究では、幻覚はあるものの、大きなモデルは共通の感覚を出力し、検索エンジンから直接検索できない事実を要約できるというユニークな利点を誇示している。
そこで,このような知識を対話生成に活用するために,生成した知識を雑音の知識源として扱い,後発の知識の強化と雑音の訓練戦略を提案する。
2つのベンチマークの実証結果は、最先端の手法よりも有利であることを示している。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - The Effect of Masking Strategies on Knowledge Retention by Language
Models [9.130890741447422]
本稿では,事前学習タスクが言語モデルによって捉え,忘れられた知識量に与える影響を理解することを目的とする。
我々は,実際の質問に答える能力を測定することによって,モデルの知識保持を検証した。
我々の研究結果は、あるタスクを実行する能力と同様に、そのタスクでトレーニングされた知識は、あるモデルが別のタスクを実行するように訓練されたときに忘れられることを示した。
論文 参考訳(メタデータ) (2023-06-12T15:35:23Z) - The KITMUS Test: Evaluating Knowledge Integration from Multiple Sources
in Natural Language Understanding Systems [87.3207729953778]
我々は、データセット上で最先端のコア参照解決モデルを評価する。
いくつかのモデルは、事前訓練時間と推論時間の両方で観察された知識について、オンザフライで推論するのに苦労している。
それでも、最高のパフォーマンスモデルでさえ、推論時にのみ提示される知識を確実に統合するのは難しいようです。
論文 参考訳(メタデータ) (2022-12-15T23:26:54Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z) - A Unified End-to-End Retriever-Reader Framework for Knowledge-based VQA [67.75989848202343]
本稿では,知識に基づくVQAに向けて,エンド・ツー・エンドのレトリバー・リーダー・フレームワークを提案する。
我々は、視覚言語による事前学習モデルからの多モーダルな暗黙の知識に光を当て、知識推論の可能性を掘り下げた。
提案手法では,知識検索のガイダンスを提供するだけでなく,質問応答に対してエラーが発生しやすいケースも排除できる。
論文 参考訳(メタデータ) (2022-06-30T02:35:04Z) - Generated Knowledge Prompting for Commonsense Reasoning [53.88983683513114]
本稿では,汎用的なプロンプト形式を用いて,言語モデルから直接知識文を生成することを提案する。
このアプローチは、4つのコモンセンス推論タスクにおいて、既製の言語モデルと微調整された言語モデルの両方のパフォーマンスを向上させる。
特に、モデルが生成した知識を使用することで、予測が改善できることが分かる。
論文 参考訳(メタデータ) (2021-10-15T21:58:03Z) - Sequential Latent Knowledge Selection for Knowledge-Grounded Dialogue [51.513276162736844]
この問題に対する最初のアプローチとして,逐次潜在変数モデルを提案する。
シーケンシャル・ナレッジ・トランスフォーマー (SKT) という名前のモデルは、知識よりも先行と後続の分布を追跡することができる。
論文 参考訳(メタデータ) (2020-02-18T11:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。