論文の概要: Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning
- arxiv url: http://arxiv.org/abs/2004.03070v2
- Date: Wed, 15 Apr 2020 05:02:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:43:32.120910
- Title: Inferential Text Generation with Multiple Knowledge Sources and
Meta-Learning
- Title(参考訳): 複数の知識源を用いた推論テキスト生成とメタラーニング
- Authors: Daya Guo, Akari Asai, Duyu Tang, Nan Duan, Ming Gong, Linjun Shou,
Daxin Jiang, Jian Yin and Ming Zhou
- Abstract要約: 本研究では,テキストティフ・エルス関係のような多種多様なコモンセンスのイベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例からの限られた証拠を使用して、個々の関係について学習するのが一般的である。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
- 参考スコア(独自算出の注目度): 117.23425857240679
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of generating inferential texts of events for a variety
of commonsense like \textit{if-else} relations. Existing approaches typically
use limited evidence from training examples and learn for each relation
individually. In this work, we use multiple knowledge sources as fuels for the
model. Existing commonsense knowledge bases like ConceptNet are dominated by
taxonomic knowledge (e.g., \textit{isA} and \textit{relatedTo} relations),
having a limited number of inferential knowledge. We use not only structured
commonsense knowledge bases, but also natural language snippets from
search-engine results. These sources are incorporated into a generative base
model via key-value memory network. In addition, we introduce a meta-learning
based multi-task learning algorithm. For each targeted commonsense relation, we
regard the learning of examples from other relations as the meta-training
process, and the evaluation on examples from the targeted relation as the
meta-test process. We conduct experiments on Event2Mind and ATOMIC datasets.
Results show that both the integration of multiple knowledge sources and the
use of the meta-learning algorithm improve the performance.
- Abstract(参考訳): 本稿では, 様々なコモンセンスに対して, イベントの推論テキストを生成する問題について検討する。
既存のアプローチでは、トレーニング例から限られたエビデンスを使用して、それぞれの関係を個別に学習する。
この研究では、モデルのための燃料として複数の知識ソースを使用します。
コンセプションネットのような既存の常識知識基盤は分類学的知識(例えば、textit{isA} と \textit{relatedTo} の関係)に支配されており、推論知識の数が限られている。
構造化されたコモンセンス知識ベースだけでなく,検索エンジンの自然言語スニペットも使用しています。
これらのソースはキー値メモリネットワークを介して生成ベースモデルに組み込まれている。
さらに,メタ学習に基づくマルチタスク学習アルゴリズムを導入する。
対象としたコモンセンス関係について,他の関係からの例の学習をメタトレーニングプロセス,対象関係からの例をメタテストプロセスとして評価する。
Event2MindおよびATOMICデータセットの実験を行った。
その結果,複数の知識源の統合とメタラーニングアルゴリズムの利用により,性能が向上した。
関連論文リスト
- Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - KETM:A Knowledge-Enhanced Text Matching method [0.0]
知識強化テキストマッチングモデル(KETM)と呼ばれるテキストマッチングの新しいモデルを提案する。
テキストワード定義を外部知識として検索するために、Wiktionaryを使用します。
我々は、ゲーティング機構を用いてテキストと知識を融合させ、テキストと知識融合の比率を学習する。
論文 参考訳(メタデータ) (2023-08-11T17:08:14Z) - ASPER: Answer Set Programming Enhanced Neural Network Models for Joint
Entity-Relation Extraction [11.049915720093242]
本稿では ASP-enhanced Entity-Relation extract (ASPER) という新しいアプローチを提案する。
ASPERは、データとドメインの知識の両方から学習することで、エンティティと関係を共同で認識する。
特に、ASPERはニューラルネットワークモデルの学習プロセスにおいて、事実知識(ASPで事実として表現される)と派生知識(ASPで規則として表現される)を活用する。
論文 参考訳(メタデータ) (2023-05-24T17:32:58Z) - Meta Knowledge Condensation for Federated Learning [65.20774786251683]
既存のフェデレートされた学習パラダイムは通常、より強力なモデルを達成するために、中央の解決器で分散モデルを広範囲に交換する。
これにより、特にデータ分散が不均一である場合、サーバと複数のクライアントの間で深刻な通信負荷が発生します。
既存のパラダイムとは違って,フェデレート学習におけるコミュニケーションコストを大幅に削減する新たな視点を導入する。
論文 参考訳(メタデータ) (2022-09-29T15:07:37Z) - A Unified Continuous Learning Framework for Multi-modal Knowledge
Discovery and Pre-training [73.7507857547549]
本稿では,継続的学習フレームワークにおける知識発見とマルチモーダル事前学習の統合を提案する。
知識発見のために、事前訓練されたモデルを用いてグラフ上のクロスモーダルリンクを識別する。
モデル事前トレーニングでは、モデル更新をガイドする外部知識として知識グラフが使用される。
論文 参考訳(メタデータ) (2022-06-11T16:05:06Z) - Commonsense and Named Entity Aware Knowledge Grounded Dialogue
Generation [20.283091595536835]
大規模コモンセンスと名前付きエンティティベース知識を効果的に活用するオープンドメイン対話生成モデルを提案する。
提案モデルでは,対話履歴と関連する知識の最も正確かつ重要な部分を保存するために,マルチホップアテンション層を利用する。
2つのベンチマークデータセットの実証結果は、我々のモデルが自動評価指標と人的判断の両方で最先端の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2022-05-27T12:11:40Z) - One-shot Scene Graph Generation [130.57405850346836]
ワンショットシーングラフ生成タスクに対して,複数の構造化知識(関係知識知識)を提案する。
提案手法は既存の最先端手法よりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2022-02-22T11:32:59Z) - Commonsense Knowledge in Word Associations and ConceptNet [37.751909219863585]
本稿では,ConcpetNet と SWOW という2つの大規模知識資源の詳細な比較を行った。
本稿では,2つのグラフの構造,重なり合い,相違点と,それらが状況的常識的知識をエンコードする程度について検討する。
論文 参考訳(メタデータ) (2021-09-20T06:06:30Z) - LEAPME: Learning-based Property Matching with Embeddings [5.2078071454435815]
LEAPME(LEArning-based Property Matching with Embeddings)と呼ばれる機械学習による新しいプロパティマッチング手法を提案する。
このアプローチでは、プロパティ名とインスタンス値の両方のドメイン固有のセマンティクスをよりよく活用するために、ワード埋め込みを多用している。
実世界データを用いた複数のマルチソースデータセットに対する5つのベースラインの比較評価により,LEAPMEの有効性が示唆された。
論文 参考訳(メタデータ) (2020-10-05T12:42:39Z) - Language Generation with Multi-Hop Reasoning on Commonsense Knowledge
Graph [124.45799297285083]
知識グラフの構造的情報と意味的情報の両方を活用することで、コモンセンスを意識したテキスト生成が促進されると主張している。
本稿では,外部コモンセンス知識グラフから抽出したマルチリレーショナルパスに基づいて,動的マルチホップ推論を用いた事前学習モデルを実現するマルチホップ推論フロー(GRF)の生成を提案する。
論文 参考訳(メタデータ) (2020-09-24T13:55:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。