論文の概要: Query Focused Multi-document Summarisation of Biomedical Texts
- arxiv url: http://arxiv.org/abs/2008.11986v1
- Date: Thu, 27 Aug 2020 08:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 07:43:52.304561
- Title: Query Focused Multi-document Summarisation of Biomedical Texts
- Title(参考訳): バイオメディカルテキストの多文書要約に着目した検索
- Authors: Diego Molla, Christopher Jones, and Vincent Nguyen
- Abstract要約: 本稿では,2020年のBioASQ Challenge (BioASQ8b) におけるマカリー大学とオーストラリア国立B期目の参加について述べる。
我々のフレームワークは、クエリにフォーカスした多文書抽出要約を実装しています。
我々は,BERTとBioBERT,Siameseアーキテクチャ,強化学習を用いて,変種を実験した。
- 参考スコア(独自算出の注目度): 8.373151777137792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the participation of Macquarie University and the
Australian National University for Task B Phase B of the 2020 BioASQ Challenge
(BioASQ8b). Our overall framework implements Query focused multi-document
extractive summarisation by applying either a classification or a regression
layer to the candidate sentence embeddings and to the comparison between the
question and sentence embeddings. We experiment with variants using BERT and
BioBERT, Siamese architectures, and reinforcement learning. We observe the best
results when BERT is used to obtain the word embeddings, followed by an LSTM
layer to obtain sentence embeddings. Variants using Siamese architectures or
BioBERT did not improve the results.
- Abstract(参考訳): 本稿では,2020 BioASQ Challenge (BioASQ8b) のマカリー大学とオーストラリア国立B期目の参加について述べる。
本フレームワークは,質問文埋め込みと文埋め込みの比較に分類層と回帰層を併用することにより,問合せに焦点を絞った多文書抽出要約を実現する。
我々は,BERTとBioBERT,Siameseアーキテクチャ,強化学習を用いた変種を実験した。
我々は、bert が単語埋め込みを得るのに使われ、lstm 層が文埋め込みを得るのに最適な結果を観察する。
シームズアーキテクチャやBioBERTを使用した変数は、結果を改善しなかった。
関連論文リスト
- Biomedical Entity Linking as Multiple Choice Question Answering [48.74212158495695]
本稿では,バイオメディカルエンティティリンクを複数問合せ回答として扱う新モデルであるBioELQAを提案する。
まず、高速検索器を用いて候補エンティティを取得し、生成器に参照と候補エンティティを共同で提示し、選択したエンティティに関連付けられた予測シンボルを出力する。
長い尾を持つエンティティの一般化を改善するため、類似したラベル付きトレーニングインスタンスを手がかりとして検索し、ジェネレータの検索インスタンスで入力する。
論文 参考訳(メタデータ) (2024-02-23T08:40:38Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Query-focused Extractive Summarisation for Biomedical and COVID-19
Complex Question Answering [0.0]
本稿では,最近の2つのBioASQ Synergy Tasksへのマッコーリー大学の参加について述べる。
本稿では, 問合せに焦点を絞った抽出要約手法を適用し, 生体医学的問題に対する複雑な回答を生成する。
The Synergy task, we selected the candidate sentences following two phases: document search and snippet search。
そこで本研究では,BioASQ10bトレーニングデータの下半期にトレーニングを行った結果の改善について検討した。
論文 参考訳(メタデータ) (2022-09-05T07:56:44Z) - Evaluating Biomedical BERT Models for Vocabulary Alignment at Scale in
the UMLS Metathesaurus [8.961270657070942]
現在のUMLS(Unified Medical Language System)メタテーザウルス構築プロセスは高価でエラーを起こしやすい。
自然言語処理の最近の進歩は、下流タスクにおける最先端(SOTA)のパフォーマンスを達成している。
BERTモデルを用いたアプローチがUMLSメタテーラスの同義語予測において,既存のアプローチよりも優れているかどうかを検証することを目的としている。
論文 参考訳(メタデータ) (2021-09-14T16:52:16Z) - Query-Focused Extractive Summarisation for Finding Ideal Answers to
Biomedical and COVID-19 Questions [7.6997148655751895]
マカリー大学はBioASQ Synergy TaskとBioASQ9b Phase Bに参加した。
我々は,BioASQ8bのトレーニングデータセットを用いて,問合せに着目した要約システムを用いた。
システムによって回収された文書やスニペットの質が低かったことを踏まえ,回答の質は適度に良好であった。
論文 参考訳(メタデータ) (2021-08-27T09:19:42Z) - A Hybrid Approach to Measure Semantic Relatedness in Biomedical Concepts [0.0]
ELMo, BERT, Sentence BERTモデルを用いて概念優先項を符号化して概念ベクトルを生成した。
SNLIおよびSTSbデータセット上でSiameseネットワークを使用してすべてのBERTモデルをトレーニングし、モデルがセマンティック情報を学ぶことができるようにしました。
概念ベクトルにオントロジー知識を注入すると、その品質がさらに向上し、関連性のスコアが向上する。
論文 参考訳(メタデータ) (2021-01-25T16:01:27Z) - Experiments on transfer learning architectures for biomedical relation
extraction [1.2599533416395763]
関係抽出(relation extract、RE)とは、テキストから自動的に関心関係を識別し、構造化することである。
最近、BERTはREを含むいくつかのNLPタスクの上位パフォーマンスを改善した。
本稿では,2つのコーパス上でのバイオメディカルREの課題に対して,BERTに基づく様々なアーキテクチャとトランスファーラーニング戦略(凍結あるいは微調整)について検討する。
論文 参考訳(メタデータ) (2020-11-24T20:56:47Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z) - Students Need More Attention: BERT-based AttentionModel for Small Data
with Application to AutomaticPatient Message Triage [65.7062363323781]
BioBERT (Bidirectional Representations from Transformers for Biomedical Text Mining) に基づく新しいフレームワークを提案する。
LESA-BERTと呼ぶBERTの各層にラベル埋め込みを導入し、(ii)LESA-BERTを小さな変種に蒸留することにより、小さなデータセットで作業する際のオーバーフィッティングとモデルサイズを低減することを目指す。
アプリケーションとして,本フレームワークを用いて,患者ポータルメッセージトリアージのモデルを構築し,メッセージの緊急度を非緊急度,中度度,緊急度という3つのカテゴリに分類する。
論文 参考訳(メタデータ) (2020-06-22T03:39:00Z) - BURT: BERT-inspired Universal Representation from Twin Structure [89.82415322763475]
BURT (BERT inspired Universal Representation from Twin Structure) は任意の粒度の入力シーケンスに対して普遍的で固定サイズの表現を生成することができる。
提案するBURTは,Siameseネットワークを採用し,自然言語推論データセットから文レベル表現を学習し,パラフレーズ化データセットから単語/フレーズレベル表現を学習する。
我々は,STSタスク,SemEval2013 Task 5(a) など,テキスト類似性タスクの粒度によってBURTを評価する。
論文 参考訳(メタデータ) (2020-04-29T04:01:52Z) - A Study on Efficiency, Accuracy and Document Structure for Answer
Sentence Selection [112.0514737686492]
本稿では,単語関連エンコーダとともに,原語階の内在的構造を活用すれば,競争的な結果が得られることを論じる。
私たちのモデルはWikiQAデータセットでトレーニングするのに9.5秒かかります。
論文 参考訳(メタデータ) (2020-03-04T22:12:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。