論文の概要: Roof-BERT: Divide Understanding Labour and Join in Work
- arxiv url: http://arxiv.org/abs/2112.06736v1
- Date: Mon, 13 Dec 2021 15:40:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 20:54:37.434893
- Title: Roof-BERT: Divide Understanding Labour and Join in Work
- Title(参考訳): Roof-BERT: 仕事における労働と参加の分断
- Authors: Wei-Lin Liao, Wei-Yun Ma
- Abstract要約: Roof-BERTは、2つの基盤となるBERTと融合層を持つモデルである。
基盤となるBERTの1つは知識資源をエンコードし、もう1つは元の入力文をエンコードする。
QAタスクの実験結果から,提案手法の有効性が明らかになった。
- 参考スコア(独自算出の注目度): 7.523253052992842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent work on enhancing BERT-based language representation models with
knowledge graphs (KGs) has promising results on multiple NLP tasks.
State-of-the-art approaches typically integrate the original input sentences
with triples in KGs, and feed the combined representation into a BERT model.
However, as the sequence length of a BERT model is limited, the framework can
not contain too much knowledge besides the original input sentences and is thus
forced to discard some knowledge. The problem is especially severe for those
downstream tasks that input is a long paragraph or even a document, such as QA
or reading comprehension tasks. To address the problem, we propose Roof-BERT, a
model with two underlying BERTs and a fusion layer on them. One of the
underlying BERTs encodes the knowledge resources and the other one encodes the
original input sentences, and the fusion layer like a roof integrates both
BERTs' encodings. Experiment results on QA task reveal the effectiveness of the
proposed model.
- Abstract(参考訳): 近年,知識グラフ(KG)を用いたBERTに基づく言語表現モデルの改良が,複数のNLPタスクに対して有望な結果をもたらしている。
最先端のアプローチは通常、元の入力文をKGのトリプルと統合し、組み合わせた表現をBERTモデルに供給する。
しかし、BERTモデルのシーケンス長が制限されているため、このフレームワークは元の入力文以外の知識をあまり含まないため、いくつかの知識を捨てざるを得ない。
この問題は、入力が長い段落であるダウンストリームタスクや、qaや理解タスクを読むといったドキュメントである場合には特に深刻です。
そこで本研究では、2つの基盤となるBERTと融合層を持つモデルであるRoof-BERTを提案する。
基盤となるBERTの1つは知識資源をエンコードし、もう1つは元の入力文をエンコードし、屋根のような融合層はBERTのエンコードを統合する。
qaタスクにおける実験結果から,提案モデルの有効性が明らかになった。
関連論文リスト
- Make BERT-based Chinese Spelling Check Model Enhanced by Layerwise
Attention and Gaussian Mixture Model [33.446533426654995]
我々は、BERTベースのCSCモデルを強化するために、異種知識注入フレームワークを設計する。
複数層表現を生成するために,n-gram-based layerwise self-attention の新たな形式を提案する。
実験の結果,提案手法は4つの強力なベースラインモデルに対して安定な性能向上をもたらすことがわかった。
論文 参考訳(メタデータ) (2023-12-27T16:11:07Z) - Mixed-Distil-BERT: Code-mixed Language Modeling for Bangla, English, and Hindi [0.0]
我々は、バングラ語、英語、ヒンディー語で事前訓練された多言語モデルTri-Distil-BERTと、コードミックスデータに基づいて微調整されたMixed-Distil-BERTを紹介する。
我々の2層事前学習アプローチは、多言語およびコード混在言語理解のための効率的な代替手段を提供する。
論文 参考訳(メタデータ) (2023-09-19T02:59:41Z) - Deep Bidirectional Language-Knowledge Graph Pretraining [159.9645181522436]
DRAGONは、テキストとKGを大規模に融合した言語知識基盤モデルを事前学習するための自己教師型アプローチである。
我々のモデルは、入力としてテキストセグメントと関連するKGサブグラフのペアを取り、両モードから情報を双方向に融合する。
論文 参考訳(メタデータ) (2022-10-17T18:02:52Z) - Incorporating BERT into Parallel Sequence Decoding with Adapters [82.65608966202396]
本稿では,2種類のBERTモデルをエンコーダとデコーダとして取り出し,シンプルで軽量なアダプタモジュールを導入し,それらを微調整する。
我々は、ソース側およびターゲット側BERTモデルに含まれる情報を協調的に活用できるフレキシブルで効率的なモデルを得る。
我々のフレームワークは、BERTの双方向および条件独立性を考慮した、Mask-Predictという並列シーケンス復号アルゴリズムに基づいている。
論文 参考訳(メタデータ) (2020-10-13T03:25:15Z) - DeeBERT: Dynamic Early Exiting for Accelerating BERT Inference [69.93692147242284]
BERTのような大規模事前訓練型言語モデルは、NLPアプリケーションに大幅な改善をもたらした。
本稿では, BERT推論を高速化するために, 単純だが効果的な手法であるDeeBERTを提案する。
実験の結果、DeeBERTはモデル品質の低下を最小限に抑えながら、最大40%の推論時間を節約できることがわかった。
論文 参考訳(メタデータ) (2020-04-27T17:58:05Z) - DC-BERT: Decoupling Question and Document for Efficient Contextual
Encoding [90.85913515409275]
近年のオープンドメイン質問応答は,BERT などの事前学習言語モデルを用いて顕著な性能向上を実現している。
本稿では,2つのBERTモデルを持つコンテキストエンコーディングフレームワークであるDC-BERTと,すべての文書を事前エンコードし,それらのエンコーディングをキャッシュするオフラインBERTを提案する。
SQuADオープンとNatural Questionsオープンデータセットでは、DC-BERTは文書検索の10倍のスピードアップを実現し、QAパフォーマンスのほとんど(約98%)を維持している。
論文 参考訳(メタデータ) (2020-02-28T08:18:37Z) - Incorporating BERT into Neural Machine Translation [251.54280200353674]
本稿では,入力シーケンスの表現抽出にBERTを用いたBERT融合モデルを提案する。
我々は、教師付き(文レベルと文書レベルの翻訳を含む)、半教師なしおよび教師なしの機械翻訳の実験を行い、7つのベンチマークデータセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2020-02-17T08:13:36Z) - SBERT-WK: A Sentence Embedding Method by Dissecting BERT-based Word
Models [43.18970770343777]
BERTと呼ばれる文脈化された単語表現は、非常に少数のNLPタスクで最先端のパフォーマンスを達成する。
しかし、BERTベースの単語モデルから高品質な文表現を生成することは、オープンな問題である。
本稿では,単語表現に代表される空間の幾何学的解析により,BERTに基づく単語モデルを切り離すことにより,新しい文埋め込み手法を提案する。
論文 参考訳(メタデータ) (2020-02-16T19:02:52Z) - TwinBERT: Distilling Knowledge to Twin-Structured BERT Models for
Efficient Retrieval [11.923682816611716]
本稿では,効率的な検索のためのTwinBERTモデルを提案する。
クエリとドキュメントをそれぞれ表現するBERTライクなエンコーダがツイン構造化されている。
ドキュメントの埋め込みはオフラインでプリコンパイルされ、メモリにキャッシュされる。
論文 参考訳(メタデータ) (2020-02-14T22:44:36Z) - BERT's output layer recognizes all hidden layers? Some Intriguing
Phenomena and a simple way to boost BERT [53.63288887672302]
変換器による双方向表現(BERT)は多くの自然言語処理(NLP)タスクで大きな成功を収めている。
その結果,BERTの各層を直接入力として取り込むことで,BERTの出力層が入力文を再構築できることが判明した。
本稿では,BERTの性能向上のための非常に単純な手法を提案する。
論文 参考訳(メタデータ) (2020-01-25T13:35:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。