論文の概要: An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2205.10661v1
- Date: Sat, 21 May 2022 19:49:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 14:07:14.817672
- Title: An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs
- Title(参考訳): 知識グラフを用いたコモンセンス自己スーパービジョンの実証的研究
- Authors: Jiarui Zhang, Filip Ilievski, Kaixin Ma, Jonathan Francis and
Alessandro Oltramari
- Abstract要約: 大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
- 参考スコア(独自算出の注目度): 67.23285413610243
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Self-supervision based on the information extracted from large knowledge
graphs has been shown to improve the generalization of language models, in
zero-shot evaluation on various downstream language reasoning tasks. Since
these improvements are reported in aggregate, however, little is known about
(i) how to select the appropriate knowledge for solid performance across tasks,
(ii) how to combine this knowledge with neural language models, and (iii) how
these pairings affect granular task performance. In this paper, we study the
effect of knowledge sampling strategies and sizes that can be used to generate
synthetic data for adapting language models. We study the effect of different
synthetic datasets on language models with various architectures and sizes. The
resulting models are evaluated against four task properties: domain overlap,
answer similarity, vocabulary overlap, and answer length. Our experiments show
that encoder-decoder models benefit from more data to learn from, whereas
sampling strategies that balance across different aspects yield best
performance. Most of the improvement occurs on questions with short answers and
dissimilar answer candidates, which corresponds to the characteristics of the
data used for pre-training.
- Abstract(参考訳): 大規模知識グラフから抽出した情報に基づく自己スーパービジョンにより,ダウンストリーム言語推論タスクにおけるゼロショット評価において,言語モデルの一般化が向上することが示されている。
これらの改善は総じて報告されているので、あまり知られていない。
i)タスク間での堅実なパフォーマンスのための適切な知識の選択方法
(二)この知識をニューラルネットワークモデルと組み合わせる方法、及び
3)これらのペアリングがタスクパフォーマンスにどのように影響するか。
本稿では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
様々なアーキテクチャや大きさの言語モデルに異なる合成データセットが与える影響について検討する。
得られたモデルは、ドメインオーバーラップ、応答類似性、語彙オーバーラップ、応答長の4つのタスク特性に対して評価される。
実験の結果,エンコーダ-デコーダモデルでは学習するデータが多くなるのに対して,異なる側面のバランスをとるサンプリング戦略では最高のパフォーマンスが得られることがわかった。
改善のほとんどは、短い回答と異なる回答候補を持つ質問で行われ、事前学習に使用されるデータの特徴に対応している。
関連論文リスト
- Likelihood as a Performance Gauge for Retrieval-Augmented Generation [78.28197013467157]
言語モデルの性能の効果的な指標としての可能性を示す。
提案手法は,より優れた性能をもたらすプロンプトの選択と構築のための尺度として,疑似可能性を利用する2つの手法を提案する。
論文 参考訳(メタデータ) (2024-11-12T13:14:09Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Influence Scores at Scale for Efficient Language Data Sampling [3.072340427031969]
影響スコア」は、データの重要なサブセットを特定するために使われる。
本稿では,言語分類タスクにおける影響スコアの適用性について検討する。
論文 参考訳(メタデータ) (2023-11-27T20:19:22Z) - Visualizing the Relationship Between Encoded Linguistic Information and
Task Performance [53.223789395577796]
本稿では,Pareto Optimalityの観点から,符号化言語情報とタスクパフォーマンスの動的関係について検討する。
我々は、機械翻訳と言語モデリングという2つの一般的なNLPタスクの実験を行い、様々な言語情報とタスクパフォーマンスの関係について検討する。
実験結果から,NLPタスクには構文情報が有用であるのに対して,より構文情報の符号化が必ずしも優れたパフォーマンスをもたらすとは限らないことが示唆された。
論文 参考訳(メタデータ) (2022-03-29T19:03:10Z) - How much pretraining data do language models need to learn syntax? [12.668478784932878]
トランスフォーマーに基づく事前訓練型言語モデルは、多くのよく知られたNLUベンチマークにおいて優れた結果を得る。
本稿では,RoBERTaを用いたモデル知識に対する事前学習データサイズの影響について検討する。
論文 参考訳(メタデータ) (2021-09-07T15:51:39Z) - Layer-wise Analysis of a Self-supervised Speech Representation Model [26.727775920272205]
自己教師付き学習アプローチは、音声表現モデルの事前学習に成功している。
事前訓練された表現そのものに符号化された情報のタイプや範囲についてはあまり研究されていない。
論文 参考訳(メタデータ) (2021-07-10T02:13:25Z) - Knowledge-driven Data Construction for Zero-shot Evaluation in
Commonsense Question Answering [80.60605604261416]
本稿では,共通認識課題にまたがるゼロショット質問応答のための新しいニューラルシンボリック・フレームワークを提案する。
言語モデル、トレーニング体制、知識ソース、データ生成戦略のセットを変えて、タスク間の影響を測定します。
個別の知識グラフは特定のタスクに適しているが、グローバルな知識グラフはさまざまなタスクに対して一貫した利得をもたらす。
論文 参考訳(メタデータ) (2020-11-07T22:52:21Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Data Augmentation for Spoken Language Understanding via Pretrained
Language Models [113.56329266325902]
音声言語理解(SLU)モデルの訓練は、しばしばデータ不足の問題に直面している。
我々は,事前学習言語モデルを用いたデータ拡張手法を提案し,生成した発話の変動性と精度を向上した。
論文 参考訳(メタデータ) (2020-04-29T04:07:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。