論文の概要: A Survey on Biomedical Text Summarization with Pre-trained Language
Model
- arxiv url: http://arxiv.org/abs/2304.08763v1
- Date: Tue, 18 Apr 2023 06:38:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-19 15:55:31.303810
- Title: A Survey on Biomedical Text Summarization with Pre-trained Language
Model
- Title(参考訳): 事前学習型言語モデルを用いたバイオメディカルテキスト要約の検討
- Authors: Qianqian Xie and Zheheng Luo and Benyou Wang and Sophia Ananiadou
- Abstract要約: バイオメディカルテキストの指数的成長は、臨床医や研究者が臨床情報に効率的にアクセスする上で大きな課題となる。
この問題を解決するため,臨床情報検索と管理を支援するためにバイオメディカルテキスト要約法が提案されている。
PLMは、バイオメディカル分野においてさらに研究され、バイオメディカルテキスト要約タスクに新たな洞察をもたらした。
- 参考スコア(独自算出の注目度): 21.516351027053705
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The exponential growth of biomedical texts such as biomedical literature and
electronic health records (EHRs), provides a big challenge for clinicians and
researchers to access clinical information efficiently. To address the problem,
biomedical text summarization has been proposed to support clinical information
retrieval and management, aiming at generating concise summaries that distill
key information from single or multiple biomedical documents. In recent years,
pre-trained language models (PLMs) have been the de facto standard of various
natural language processing tasks in the general domain. Most recently, PLMs
have been further investigated in the biomedical field and brought new insights
into the biomedical text summarization task. In this paper, we systematically
summarize recent advances that explore PLMs for biomedical text summarization,
to help understand recent progress, challenges, and future directions. We
categorize PLMs-based approaches according to how they utilize PLMs and what
PLMs they use. We then review available datasets, recent approaches and
evaluation metrics of the task. We finally discuss existing challenges and
promising future directions. To facilitate the research community, we line up
open resources including available datasets, recent approaches, codes,
evaluation metrics, and the leaderboard in a public project:
https://github.com/KenZLuo/Biomedical-Text-Summarization-Survey/tree/master.
- Abstract(参考訳): 生物医学文献や電子健康記録(EHR)などの生物医学テキストの指数的成長は、臨床医や研究者が臨床情報に効率的にアクセスする上で大きな課題となる。
この問題に対処するために, 臨床情報検索と管理を支援するために, 複数の生体医学文書からキー情報を蒸留する簡潔な要約を作成することを目的としたバイオメディカルテキスト要約が提案されている。
近年,プレトレーニング言語モデル (PLM) が,一般領域における自然言語処理タスクの事実上の標準となっている。
最近では、PLMが生物医学分野でさらに研究され、生物医学テキスト要約タスクに新たな洞察をもたらした。
本稿では,最近の進歩,課題,今後の方向性を理解するために,バイオメディカルテキスト要約のためのPLMを探索する最近の進歩を体系的に要約する。
PLM の活用方法と PLM の活用方法に応じて PLM ベースのアプローチを分類する。
次に、利用可能なデータセット、最近のアプローチ、タスクの評価メトリクスをレビューする。
最後に,既存の課題と今後の方向性について論じる。
研究コミュニティを促進するために、利用可能なデータセット、最近のアプローチ、コード、評価メトリクス、および公開プロジェクトにおけるリーダーボードを含むオープンリソースをラインアップします。
関連論文リスト
- A Survey for Large Language Models in Biomedicine [31.719451674137844]
このレビューは、PubMed、Web of Science、arXivなどのデータベースから得られた484の出版物の分析に基づいている。
我々は、診断支援、薬物発見、パーソナライズドメディカル医療を含む幅広いバイオメディカル・タスクにおいて、ゼロショット学習におけるLLMの能力について検討する。
データプライバシの懸念、限定されたモデル解釈可能性、データセットの品質の問題、倫理など、LLMがバイオメディシック領域で直面する課題について論じる。
論文 参考訳(メタデータ) (2024-08-29T12:39:16Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - MedREQAL: Examining Medical Knowledge Recall of Large Language Models via Question Answering [5.065947993017158]
大きな言語モデル(LLM)は、大きなテキストコーパスで事前学習中に知識を符号化する印象的な能力を示している。
体系的レビューから得られた新しいデータセットを構築することにより, LLMが医療知識のリコールを示す能力について検討する。
論文 参考訳(メタデータ) (2024-06-09T16:33:28Z) - Large Language Models in Biomedical and Health Informatics: A Review with Bibliometric Analysis [24.532570258954898]
大規模言語モデル(LLM)は、バイオメディカル・ヘルスインフォマティクス(BHI)において、急速に重要なツールになりつつある。
本研究の目的は、BHIにおけるLLM応用の総合的な概要を提供し、その変容の可能性を強調し、関連する倫理的・実践的課題に対処することである。
論文 参考訳(メタデータ) (2024-03-24T21:29:39Z) - An Evaluation of Large Language Models in Bioinformatics Research [52.100233156012756]
本研究では,大規模言語モデル(LLM)の性能について,バイオインフォマティクスの幅広い課題について検討する。
これらのタスクには、潜在的なコーディング領域の同定、遺伝子とタンパク質の命名されたエンティティの抽出、抗微生物および抗がんペプチドの検出、分子最適化、教育生物情報学問題の解決が含まれる。
以上の結果から, GPT 変種のような LLM がこれらのタスクの多くをうまく処理できることが示唆された。
論文 参考訳(メタデータ) (2024-02-21T11:27:31Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Opportunities and Challenges for ChatGPT and Large Language Models in
Biomedicine and Health [22.858424132819795]
チャットGPTは、バイオメディシンと健康の分野における多様な応用の出現につながっている。
生体情報検索,質問応答,医用テキスト要約,医学教育の分野について検討する。
テキスト生成タスクの分野では,従来の最先端手法を超越した大きな進歩が見られた。
論文 参考訳(メタデータ) (2023-06-15T20:19:08Z) - LLaVA-Med: Training a Large Language-and-Vision Assistant for
Biomedicine in One Day [85.19963303642427]
本稿では,バイオメディカルイメージのオープンな研究課題に答えられる視覚言語対話アシスタントを訓練するための費用効率のよいアプローチを提案する。
モデルはまず、フィギュア・キャプションのペアを使ってバイオメディカル・ボキャブラリをアライメントし、その後、オープンエンドの会話意味論を習得する。
これにより、バイオメディジンのための大規模言語と視覚アシスタントを15時間以内で(8つのA100で)訓練することができる。
論文 参考訳(メタデータ) (2023-06-01T16:50:07Z) - Pre-trained Language Models in Biomedical Domain: A Systematic Survey [33.572502204216256]
プレトレーニング言語モデル(PLM)は、ほとんどの自然言語処理(NLP)タスクのデファクトパラダイムである。
本稿では,生物医学領域における事前学習言語モデルの最近の進歩とその生物医学的下流タスクへの応用について要約する。
論文 参考訳(メタデータ) (2021-10-11T05:30:30Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - An Analysis of a BERT Deep Learning Strategy on a Technology Assisted
Review Task [91.3755431537592]
文書検診はEvidenced Based Medicineにおける中心的な課題である。
本稿では,BERT や PubMedBERT を組み込んだ DL 文書分類手法と DL 類似性検索経路を提案する。
2017年と2018年のCLEF eHealth コレクションにおいて,私の DL 戦略の検索の有効性を検証し,評価した。
論文 参考訳(メタデータ) (2021-04-16T19:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。