論文の概要: GAPMAP: Mapping Scientific Knowledge Gaps in Biomedical Literature Using Large Language Models
- arxiv url: http://arxiv.org/abs/2510.25055v1
- Date: Wed, 29 Oct 2025 00:46:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:44.888687
- Title: GAPMAP: Mapping Scientific Knowledge Gaps in Biomedical Literature Using Large Language Models
- Title(参考訳): GAPMAP:大規模言語モデルを用いた医学文献の科学知識ギャップのマッピング
- Authors: Nourah M Salem, Elizabeth White, Michael Bada, Lawrence Hunter,
- Abstract要約: 本研究では,生物医学文献における研究知識ギャップを同定する大規模言語モデルの能力について検討する。
明示的なギャップ、不明な知識の明確な宣言、暗黙的なギャップ、文脈推論された不足した知識の2つのカテゴリを定義します。
バイオメディカルな論文を手動で注釈付けしたコーパスを含む,4つのデータセットにわたる約1500の文書に対して2つの実験を行った。
- 参考スコア(独自算出の注目度): 2.770730728142587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific progress is driven by the deliberate articulation of what remains unknown. This study investigates the ability of large language models (LLMs) to identify research knowledge gaps in the biomedical literature. We define two categories of knowledge gaps: explicit gaps, clear declarations of missing knowledge; and implicit gaps, context-inferred missing knowledge. While prior work has focused mainly on explicit gap detection, we extend this line of research by addressing the novel task of inferring implicit gaps. We conducted two experiments on almost 1500 documents across four datasets, including a manually annotated corpus of biomedical articles. We benchmarked both closed-weight models (from OpenAI) and open-weight models (Llama and Gemma 2) under paragraph-level and full-paper settings. To address the reasoning of implicit gaps inference, we introduce \textbf{\small TABI}, a Toulmin-Abductive Bucketed Inference scheme that structures reasoning and buckets inferred conclusion candidates for validation. Our results highlight the robust capability of LLMs in identifying both explicit and implicit knowledge gaps. This is true for both open- and closed-weight models, with larger variants often performing better. This suggests a strong ability of LLMs for systematically identifying candidate knowledge gaps, which can support early-stage research formulation, policymakers, and funding decisions. We also report observed failure modes and outline directions for robust deployment, including domain adaptation, human-in-the-loop verification, and benchmarking across open- and closed-weight models.
- Abstract(参考訳): 科学的進歩は、何が未知であるかの意図的な記述によって引き起こされる。
本研究では,大規模言語モデル(LLM)が生物医学文献における研究知識ギャップを識別する能力について検討した。
明示的なギャップ、不明な知識の明確な宣言、暗黙的なギャップ、文脈推論された不足した知識の2つのカテゴリを定義します。
従来の研究は主に明示的なギャップ検出に焦点が当てられていたが、暗黙のギャップを推測する新しい課題に対処することで、この研究の線を延長した。
バイオメディカルな論文を手動で注釈付けしたコーパスを含む,4つのデータセットにわたる約1500の文書に対して2つの実験を行った。
私たちは、段落レベルとフルペーパー設定の下で、クローズドウェイトモデル(OpenAI)とオープンウェイトモデル(LlamaとGemma 2)をベンチマークしました。
暗黙的ギャップ推論の推論に対処するために、構造的推論とバケットが検証の結論候補を推定するToulmin-Abductive Bucketed Inferenceスキームである \textbf{\small TABI} を導入する。
本結果は,LLMが明示的知識ギャップと暗黙的知識ギャップの両方を識別する上での堅牢性を強調した。
これはオープンウェイトモデルとクローズドウェイトモデルの両方に当てはまる。
このことは、早期研究の定式化、政策立案、資金調達決定を支援するため、候補知識ギャップを体系的に識別するLLMの強い能力を示している。
また、ドメイン適応、ヒューマン・イン・ザ・ループ検証、オープンウェイトモデルとクローズドウェイトモデル間のベンチマークなど、堅牢なデプロイメントのための障害モードとアウトラインの方向性を報告した。
関連論文リスト
- Advancing AI Research Assistants with Expert-Involved Learning [84.30323604785646]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、生物医学的な発見を促進することを約束するが、その信頼性は未定である。
ARIEL(AI Research Assistant for Expert-in-the-Loop Learning)は,オープンソースの評価・最適化フレームワークである。
LMMは詳細な視覚的推論に苦しむのに対し、最先端のモデルでは流動性はあるが不完全な要約を生成する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - Attention Heads of Large Language Models: A Survey [10.136767972375639]
我々は,大規模言語モデル (LLM) の内部的推論過程を体系的に検討し,その役割と機構を解明することを目的としている。
まず,人間の思考プロセスにインスパイアされた新しい4段階のフレームワーク,知識のリコール,文脈内同定,潜在推論,表現準備を紹介する。
本稿では,これらの特殊ヘッドの発見に使用する実験手法を,モデリング自由法とモデリング要求法という2つのカテゴリに分けて分析する。
論文 参考訳(メタデータ) (2024-09-05T17:59:12Z) - Automating Intervention Discovery from Scientific Literature: A Progressive Ontology Prompting and Dual-LLM Framework [56.858564736806414]
本稿では,大規模言語モデル(LLM)を利用した科学文献の介入の同定手法を提案する。
言語病理領域における64,177論文のコーパスから,2,421件の介入が得られた。
論文 参考訳(メタデータ) (2024-08-20T16:42:23Z) - Can large language models understand uncommon meanings of common words? [30.527834781076546]
大規模言語モデル(LLM)は、様々な自然言語理解(NLU)タスクに大きく進歩している。
しかし、LLMがオウムなのか、本当の意味で世界を理解するのかは、広く認知されている試験機構が欠如している。
本稿では,新しい評価指標を用いたレキシカルセマンティックデータセットの革新的構築について述べる。
論文 参考訳(メタデータ) (2024-05-09T12:58:22Z) - Graph-Based Retriever Captures the Long Tail of Biomedical Knowledge [2.2814097119704058]
大規模言語モデル(LLM)は、膨大な知識を要約して提示することで、情報の検索方法を変えつつある。
LLMはトレーニングセットから最も頻繁に見られる情報を強調し、まれな情報を無視する傾向があります。
本稿では,これらのクラスタをダウンサンプリングし,情報過負荷問題を緩和するために知識グラフを活用する新しい情報検索手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T18:31:11Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Exploring the In-context Learning Ability of Large Language Model for
Biomedical Concept Linking [4.8882241537236455]
本研究では,生物医学的概念リンクのための大規模モデルのコンテキスト内学習機能を活用する手法について検討する。
提案手法は2段階のレトリーブ・アンド・ランク・フレームワークを採用する。
BC5CDRの病体正規化では90.%、化学体正規化では94.7%の精度を達成した。
論文 参考訳(メタデータ) (2023-07-03T16:19:50Z) - Large Language Models, scientific knowledge and factuality: A framework to streamline human expert evaluation [0.0]
本研究は,生物医学的背景知識と対話するための大規模言語モデルの可能性を探るものである。
フレームワークには3つの評価ステップが含まれており、それぞれが流布、即応的なアライメント、セマンティック・コヒーレンス、事実的知識、生成した応答の特異性という3つの側面を逐次評価する。
この研究は、ChatGPT、GPT-4、Llama 2を含む11の最先端のLLMを2つのプロンプトベースタスクで持つ能力に関する体系的な評価を提供する。
論文 参考訳(メタデータ) (2023-05-28T22:46:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。