論文の概要: ImmunoFOMO: Are Language Models missing what oncologists see?
- arxiv url: http://arxiv.org/abs/2506.11478v1
- Date: Fri, 13 Jun 2025 06:00:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.667497
- Title: ImmunoFOMO: Are Language Models missing what oncologists see?
- Title(参考訳): イムノフォモ:言語モデルに腫瘍学者が見るものは欠けているか?
- Authors: Aman Sinha, Bogdan-Valentin Popescu, Xavier Coubez, Marianne Clausel, Mathieu Constant,
- Abstract要約: 各種言語モデルの臨床医に対する医療概念的根拠について検討し,乳がん要約における免疫療法の目印の同定について検討した。
その結果、事前学習された言語モデルは、非常に具体的な(低レベルな)概念を特定する上で、大きな言語モデルよりも優れている可能性が示唆された。
- 参考スコア(独自算出の注目度): 2.8544513613730205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) capabilities have grown with a fast pace over the past decade leading researchers in various disciplines, such as biomedical research, to increasingly explore the utility of LMs in their day-to-day applications. Domain specific language models have already been in use for biomedical natural language processing (NLP) applications. Recently however, the interest has grown towards medical language models and their understanding capabilities. In this paper, we investigate the medical conceptual grounding of various language models against expert clinicians for identification of hallmarks of immunotherapy in breast cancer abstracts. Our results show that pre-trained language models have potential to outperform large language models in identifying very specific (low-level) concepts.
- Abstract(参考訳): 言語モデル(LM)の能力は過去10年間で急速に成長し、バイオメディカル研究などの様々な分野の研究者が日々の応用におけるLMの有用性を探求するようになる。
ドメイン固有言語モデルは、すでにバイオメディカル自然言語処理(NLP)アプリケーションに使われている。
しかし近年,医学的言語モデルとその理解能力への関心が高まっている。
本稿では,乳がんの抽象化における免疫療法の指標を同定するために,各種言語モデルの専門医に対する医療概念的根拠について検討する。
以上の結果から,事前学習した言語モデルは,非常に具体的な(低レベルな)概念を識別する上で,大きな言語モデルよりも優れている可能性が示唆された。
関連論文リスト
- The Evolving Landscape of Generative Large Language Models and Traditional Natural Language Processing in Medicine [11.237277421599027]
生成型大規模言語モデル (LLMs) は近年注目されているが, 異なる医療課題間での差異は未解明のままである。
従来のNLPが情報抽出・分析タスクで優位であるのに対し, 生成LDMはオープンエンドタスクで優位性を示すことがわかった。
論文 参考訳(メタデータ) (2025-05-15T13:11:14Z) - Biomedical Foundation Model: A Survey [84.26268124754792]
ファンデーションモデルは、広範なラベルなしデータセットから学習する大規模な事前訓練モデルである。
これらのモデルは、質問応答や視覚的理解といった様々な応用に適応することができる。
本研究は,生物医学分野における基礎モデルの可能性を探るものである。
論文 参考訳(メタデータ) (2025-03-03T22:42:00Z) - Retrieve, Generate, Evaluate: A Case Study for Medical Paraphrases Generation with Small Language Models [2.4851820343103035]
SLM(Small Language Models)を用いた検索用拡張生成パイプラインpRAGeと医用パラフレーズ生成の評価について紹介する。
フランスの医療パラフレーズ生成におけるSLMの有効性と外部知識ベースの影響について検討した。
論文 参考訳(メタデータ) (2024-07-23T15:17:11Z) - Can Large Language Models abstract Medical Coded Language? [0.0]
大規模言語モデル(LLM)は医療コードを認識しており、これらのコードから正確に名前を生成することができる。
本研究は,大規模言語モデル(LLM)が医療コードを認識し,それらのコードから正確に名前を生成することができるかどうかを評価する。
論文 参考訳(メタデータ) (2024-03-16T06:18:15Z) - Towards Building Multilingual Language Model for Medicine [54.1382395897071]
6つの主要言語を含む約25.5Bトークンを含む多言語医療コーパスを構築した。
MMedBench と呼ばれる有理性を持つ多言語医療用多言語質問応答ベンチマークを提案する。
我々の最終モデルであるMMed-Llama 3は、8Bパラメータしか持たないが、MMedBenchおよび英語ベンチマークの他のすべてのオープンソースモデルと比較して優れた性能が得られる。
論文 参考訳(メタデータ) (2024-02-21T17:47:20Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - BioLORD-2023: Semantic Textual Representations Fusing LLM and Clinical
Knowledge Graph Insights [15.952942443163474]
バイオメディカルな概念と文の高忠実度表現を得るための新しい最先端手法を提案する。
これまでの技術状況よりも一貫した、実質的なパフォーマンス向上を実証する。
英語のための最新のバイオメディカルモデルに加えて、50以上の言語と互換性のある多言語モデルを蒸留してリリースする。
論文 参考訳(メタデータ) (2023-11-27T18:46:17Z) - Evaluating Large Language Models for Radiology Natural Language
Processing [68.98847776913381]
大規模言語モデル(LLM)の台頭は、自然言語処理(NLP)分野における重要な転換点となっている。
本研究は, 放射線学報告の解釈において, 30 個の LLM を批判的に評価することにより, このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2023-07-25T17:57:18Z) - Pre-trained Language Models in Biomedical Domain: A Systematic Survey [33.572502204216256]
プレトレーニング言語モデル(PLM)は、ほとんどの自然言語処理(NLP)タスクのデファクトパラダイムである。
本稿では,生物医学領域における事前学習言語モデルの最近の進歩とその生物医学的下流タスクへの応用について要約する。
論文 参考訳(メタデータ) (2021-10-11T05:30:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。