論文の概要: Mixture-of-Partitions: Infusing Large Biomedical Knowledge Graphs into
BERT
- arxiv url: http://arxiv.org/abs/2109.04810v1
- Date: Fri, 10 Sep 2021 11:54:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:31:57.159090
- Title: Mixture-of-Partitions: Infusing Large Biomedical Knowledge Graphs into
BERT
- Title(参考訳): mix-of-partitions: 大きな生体医学的知識グラフをbertに導入する
- Authors: Zaiqiao Meng, Fangyu Liu, Thomas Hikaru Clark, Ehsan Shareghi, Nigel
Collier
- Abstract要約: Mixture-of-Partitions (MoP)は、非常に大きな知識グラフ(KG)を小さなサブグラフに分割し、その特定の知識を軽量アダプタを使用して様々なBERTモデルに注入することで処理することができる。
SciBERT, BioBERT, PubmedBERTの3つのバイオメディカルBERTを下流6つのタスク(NLI, QA, 分類)で評価した。
- 参考スコア(独自算出の注目度): 17.739843061394367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Infusing factual knowledge into pre-trained models is fundamental for many
knowledge-intensive tasks. In this paper, we proposed Mixture-of-Partitions
(MoP), an infusion approach that can handle a very large knowledge graph (KG)
by partitioning it into smaller sub-graphs and infusing their specific
knowledge into various BERT models using lightweight adapters. To leverage the
overall factual knowledge for a target task, these sub-graph adapters are
further fine-tuned along with the underlying BERT through a mixture layer. We
evaluate our MoP with three biomedical BERTs (SciBERT, BioBERT, PubmedBERT) on
six downstream tasks (inc. NLI, QA, Classification), and the results show that
our MoP consistently enhances the underlying BERTs in task performance, and
achieves new SOTA performances on five evaluated datasets.
- Abstract(参考訳): 事前訓練されたモデルに事実知識を注入することは、多くの知識集約的なタスクに不可欠である。
本稿では,より小さなサブグラフに分割し,その特定の知識を軽量なアダプタを用いて様々なBERTモデルに注入することで,非常に大きな知識グラフ(KG)を処理できる混合分割法(Mixture-of-Partitions,MoP)を提案する。
対象タスクに対する全体的な事実知識を活用するために、これらのサブグラフアダプタは、混合層を介して、基盤となるBERTと共にさらに微調整される。
提案手法は,6つの下流タスク(NLI,QA,分類)において,3つのバイオメディカルBERT(SciBERT,BioBERT,PubmedBERT)を用いてMoPを評価し,このMoPがタスク性能の基盤となるBERTを一貫して強化し,5つの評価データセット上で新たなSOTA性能を実現することを示す。
関連論文リスト
- Graph Relation Distillation for Efficient Biomedical Instance
Segmentation [80.51124447333493]
本稿では,効率的なバイオメディカル・インスタンス・セグメンテーションのためのグラフ関係蒸留手法を提案する。
画像内レベルと画像間レベルの両方に展開する2つのグラフ蒸留方式を導入する。
多くのバイオメディカルデータセットの実験結果から,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-01-12T04:41:23Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Adapted Multimodal BERT with Layer-wise Fusion for Sentiment Analysis [84.12658971655253]
本稿では,マルチモーダルタスクのためのBERTベースのアーキテクチャであるAdapted Multimodal BERTを提案する。
アダプタはタスクの事前訓練された言語モデルを手動で調整し、融合層はタスク固有の層ワイドな音声視覚情報とテキストBERT表現を融合させる。
われわれは、このアプローチがより効率的なモデルにつながり、微調整されたモデルよりも優れ、ノイズの入力に堅牢であることを示した。
論文 参考訳(メタデータ) (2022-12-01T17:31:42Z) - On the Effectiveness of Compact Biomedical Transformers [12.432191400869002]
バイオメディカルコーパスで事前訓練された言語モデルは、最近下流のバイオメディカルタスクにおいて有望な結果を示した。
既存のトレーニング済みモデルの多くは、埋め込みサイズ、隠れ次元、層数などの要因により、リソース集約的で計算的に重い。
本稿では,BioDistilBERT,BioTinyBERT,BioMobileBERT,DistilBioBERT,TinyBioBERT,CompactBioBERTの6つの軽量モデルを紹介する。
3つのバイオメディカルなタスクで全てのモデルを評価し、それらをBioBERT-v1.1と比較し、より大規模なモデルと同等に動作する効率的な軽量モデルを作成する。
論文 参考訳(メタデータ) (2022-09-07T14:24:04Z) - KnowDA: All-in-One Knowledge Mixture Model for Data Augmentation in
Few-Shot NLP [68.43279384561352]
既存のデータ拡張アルゴリズムはタスク非依存のルールや微調整の汎用事前訓練言語モデルを利用する。
これらの手法は、簡単なタスク固有の知識を持ち、単純なタスクにおいて弱いベースラインのための低品質な合成データを得るに限られる。
我々は,様々なNLPタスクを予め学習したエンコーダ/デコーダLMの知識混合データ拡張モデル(KnowDA)を提案する。
論文 参考訳(メタデータ) (2022-06-21T11:34:02Z) - Which Student is Best? A Comprehensive Knowledge Distillation Exam for
Task-Specific BERT Models [3.303435360096988]
タスク固有のBERTベースの教師モデルから様々な学生モデルへの知識蒸留ベンチマークを行う。
インドネシア語でテキスト分類とシークエンスラベリングという2つのタスクでグループ化された12のデータセットについて実験を行った。
実験の結果, トランスフォーマーモデルの普及にもかかわらず, BiLSTM と CNN の学生モデルを用いることで, 性能と計算資源の最良のトレードオフが得られることがわかった。
論文 参考訳(メタデータ) (2022-01-03T10:07:13Z) - Scientific Language Models for Biomedical Knowledge Base Completion: An
Empirical Study [62.376800537374024]
我々は,KG の完成に向けた科学的 LM の研究を行い,生物医学的リンク予測を強化するために,その潜在知識を活用できるかどうかを探る。
LMモデルとKG埋め込みモデルを統合し,各入力例をいずれかのモデルに割り当てることを学ぶルータ法を用いて,性能を大幅に向上させる。
論文 参考訳(メタデータ) (2021-06-17T17:55:33Z) - A Hybrid Approach to Measure Semantic Relatedness in Biomedical Concepts [0.0]
ELMo, BERT, Sentence BERTモデルを用いて概念優先項を符号化して概念ベクトルを生成した。
SNLIおよびSTSbデータセット上でSiameseネットワークを使用してすべてのBERTモデルをトレーニングし、モデルがセマンティック情報を学ぶことができるようにしました。
概念ベクトルにオントロジー知識を注入すると、その品質がさらに向上し、関連性のスコアが向上する。
論文 参考訳(メタデータ) (2021-01-25T16:01:27Z) - Investigation of BERT Model on Biomedical Relation Extraction Based on
Revised Fine-tuning Mechanism [2.8881198461098894]
BERTモデルの微調整過程における層全体の利用法について検討する。
さらに解析により,BERTモデルの最後の層から関係性に関する重要な知識を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-11-01T01:47:16Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。