論文の概要: Few-shot learning for medical text: A systematic review
- arxiv url: http://arxiv.org/abs/2204.14081v1
- Date: Thu, 21 Apr 2022 18:15:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-08 23:35:30.219255
- Title: Few-shot learning for medical text: A systematic review
- Title(参考訳): 医療用テキストのマイナショット学習 : 体系的レビュー
- Authors: Yao Ge, Yuting Guo, Yuan-Chi Yang, Mohammed Ali Al-Garadi, Abeed
Sarker
- Abstract要約: トレーニングにはラベル付きインスタンスを少数必要とします。
2016年1月から2021年8月にかけて,PubMed/Medline, Embase, ACL Anthology, IEEE Xplore Digital Library を用いて,論文を検索した。
- 参考スコア(独自算出の注目度): 6.780366557771465
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Objective: Few-shot learning (FSL) methods require small numbers of labeled
instances for training. As many medical topics have limited annotated textual
data in practical settings, FSL-based natural language processing (NLP) methods
hold substantial promise. We aimed to conduct a systematic review to explore
the state of FSL methods for medical NLP. Materials and Methods: We searched
for articles published between January 2016 and August 2021 using
PubMed/Medline, Embase, ACL Anthology, and IEEE Xplore Digital Library. To
identify the latest relevant methods, we also searched other sources such as
preprint servers (eg., medRxiv) via Google Scholar. We included all articles
that involved FSL and any type of medical text. We abstracted articles based on
data source(s), aim(s), training set size(s), primary method(s)/approach(es),
and evaluation method(s). Results: 31 studies met our inclusion criteria-all
published after 2018; 22 (71%) since 2020. Concept extraction/named entity
recognition was the most frequently addressed task (13/31; 42%), followed by
text classification (10/31; 32%). Twenty-one (68%) studies reconstructed
existing datasets to create few-shot scenarios synthetically, and MIMIC-III was
the most frequently used dataset (7/31; 23%). Common methods included FSL with
attention mechanisms (12/31; 39%), prototypical networks (8/31; 26%), and
meta-learning (6/31; 19%). Discussion: Despite the potential for FSL in
biomedical NLP, progress has been limited compared to domain-independent FSL.
This may be due to the paucity of standardized, public datasets, and the
relative underperformance of FSL methods on biomedical topics. Creation and
release of specialized datasets for biomedical FSL may aid method development
by enabling comparative analyses.
- Abstract(参考訳): 目的:FSL(Few-shot Learning)メソッドはトレーニングに少数のラベル付きインスタンスを必要とする。
多くの医学トピックは、実用的な設定で注釈付きテキストデータに制限があるため、FSLベースの自然言語処理(NLP)手法は、かなりの可能性を秘めている。
我々は,医療用NLPのFSL法の現状を体系的に検討することを目的とした。
Materials and Methods: 2016年1月から2021年8月にかけて、PubMed/Medline、Embase、ACL Anthology、IEEE Xplore Digital Libraryを使って、論文を検索した。
最新の関連手法を特定するため,Google Scholarを通じて,プリプリントサーバ(medRxivなど)など他のソースも検索した。
FSLとあらゆる種類の医療用テキストを含むすべての記事を含む。
データソース(s)、aim(s)、トレーニングセットサイズ(s)、プライマリメソッド(s)/approach(es)、評価方法(s)に基づいて記事を抽象化した。
結果: 包括的基準は2018年以降31件,2020年以降は22件(71%)であった。
概念抽出/名称認識が最も頻繁に扱われるタスク(13/31; 42%)はテキスト分類(10/31; 32%)であった。
21名(68%)の研究が既存のデータセットを再構成し、少数のシナリオを合成し、最も頻繁に使われるデータセット(7/31; 23%)だった。
一般的な方法は,注意機構のfsl (12/31; 39%) ,原型ネットワーク (8/31; 26%),メタラーニング (6/31; 19%) である。
考察: 生物医学的NLPにおけるFSLの可能性にもかかわらず, ドメイン非依存のFSLに比べて進歩は限られている。
これは、標準化された公開データセットの曖昧さと、バイオメディカルトピックに関するFSLメソッドの相対的低パフォーマンスに起因する可能性がある。
バイオメディカルfslのための特殊なデータセットの作成とリリースは、比較分析を可能にして手法開発を支援する可能性がある。
関連論文リスト
- SciRIFF: A Resource to Enhance Language Model Instruction-Following over Scientific Literature [80.49349719239584]
SciRIFF(Scientific Resource for Instruction-Following and Finetuning, SciRIFF)は、54のタスクに対して137Kの命令追従デモのデータセットである。
SciRIFFは、幅広い科学分野の研究文献から情報を抽出し、合成することに焦点を当てた最初のデータセットである。
論文 参考訳(メタデータ) (2024-06-10T21:22:08Z) - Recent Methodological Advances in Federated Learning for Healthcare [3.1548606374130026]
フェデレートされた学習は、データのプールを必要とせずに、強力な機械学習アルゴリズムの利用を可能にする。
本稿では,2015年1月から2023年2月にかけて発行されたスコパスに関するすべての論文について考察する。
論文 参考訳(メタデータ) (2023-10-04T15:09:40Z) - Large Language Models Vote: Prompting for Rare Disease Identification [3.2063918860622795]
生成型大規模言語モデル(LLM)の性能向上のためのフレキシブルなプロンプト手法である Models-Vote Prompting (MVP) を提案する。
MVPは、多数のLCMに同じタスクを実行させ、結果のアウトプットに対して多数投票を行うことで機能する。
また、MIMIC-IV Data Use Agreement (DUA)に署名した人に利用可能な、FSLのための新しいレアな疾患データセットもリリースしている。
論文 参考訳(メタデータ) (2023-08-24T16:09:13Z) - Advancing Italian Biomedical Information Extraction with
Transformers-based Models: Methodological Insights and Multicenter Practical
Application [0.27027468002793437]
インフォメーション抽出は、自動化されたテキストマイニングパイプラインを使用することで、臨床実践者が限界を克服するのに役立つ。
我々は、最初のイタリアの神経心理学的名前付きエンティティ認識データセットであるPsyNITを作成し、それをトランスフォーマーベースのモデルの開発に利用した。
i)一貫性のあるアノテーションプロセスの重要な役割と(ii)古典的なメソッドと“低リソース”なアプローチを組み合わせた微調整戦略です。
論文 参考訳(メタデータ) (2023-06-08T16:15:46Z) - PMC-LLaMA: Towards Building Open-source Language Models for Medicine [62.39105735933138]
大規模言語モデル(LLM)は、自然言語理解において顕著な能力を示した。
LLMは、ドメイン固有の知識が不足しているため、医学的応用のような正確性を必要とする領域で苦労している。
PMC-LLaMAと呼ばれる医療応用に特化した強力なオープンソース言語モデルの構築手順について述べる。
論文 参考訳(メタデータ) (2023-04-27T18:29:05Z) - A Survey on Self-supervised Learning: Algorithms, Applications, and Future Trends [82.64268080902742]
自己教師付き学習(SSL)は、ラベル付きラベルを頼らずにラベル付きデータから識別的特徴を学習することを目的としている。
SSLは最近大きな注目を集め、多くの関連するアルゴリズムの開発に繋がった。
本稿では,アルゴリズム的側面,アプリケーション領域,3つの重要なトレンド,オープンな研究課題を含む,多様なSSL手法のレビューを行う。
論文 参考訳(メタデータ) (2023-01-13T14:41:05Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - MDFM: Multi-Decision Fusing Model for Few-Shot Learning [16.47647579893923]
本稿では, モデルの有効性とロバスト性を高めるために, MDFM (Multi-Decision Fusing Model) を提案する。
提案手法を5つのベンチマークデータセットで評価し,最新技術と比較して3.4%-7.3%の大幅な改善を実現した。
論文 参考訳(メタデータ) (2021-12-01T18:13:09Z) - Learning from Very Few Samples: A Survey [80.06120185496403]
機械学習の分野では、サンプル学習が重要で難しいものはほとんどない。
通常、一般化能力を保証するために数百から数千の教師付きサンプルを含むサンプル学習アルゴリズムはほとんどない。
論文 参考訳(メタデータ) (2020-09-06T06:13:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。