論文の概要: Leveraging Language Models and RAG for Efficient Knowledge Discovery in Clinical Environments
- arxiv url: http://arxiv.org/abs/2601.04209v1
- Date: Wed, 10 Dec 2025 05:01:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.612572
- Title: Leveraging Language Models and RAG for Efficient Knowledge Discovery in Clinical Environments
- Title(参考訳): 臨床環境における効率的な知識発見のための言語モデルとRAG
- Authors: Seokhwan Ko, Donghyeon Lee, Jaewoo Chun, Hyungsoo Han, Junghwan Cho,
- Abstract要約: 大規模言語モデル(LLM)は、医療環境全体にわたって貴重なツールとして認識されつつある。
しかしながら、病院設定における厳格なプライバシーとネットワークセキュリティ規制は、完全なローカルインフラストラクチャ内で機密データを処理する必要がある。
我々は,医療機関のメンバーが出版するPubMedの出版物に基づいて,研究協力者を推薦するための検索強化世代(RAG)システムを開発し,評価した。
- 参考スコア(独自算出の注目度): 4.352281022671451
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly recognized as valuable tools across the medical environment, supporting clinical, research, and administrative workflows. However, strict privacy and network security regulations in hospital settings require that sensitive data be processed within fully local infrastructures. Within this context, we developed and evaluated a retrieval-augmented generation (RAG) system designed to recommend research collaborators based on PubMed publications authored by members of a medical institution. The system utilizes PubMedBERT for domain-specific embedding generation and a locally deployed LLaMA3 model for generative synthesis. This study demonstrates the feasibility and utility of integrating domain-specialized encoders with lightweight LLMs to support biomedical knowledge discovery under local deployment constraints.
- Abstract(参考訳): 大規模言語モデル(LLM)は、臨床、研究、管理のワークフローをサポートするため、医療環境全体にわたる貴重なツールとして、ますます認識されている。
しかしながら、病院設定における厳格なプライバシーとネットワークセキュリティ規制は、完全なローカルインフラストラクチャ内で機密データを処理する必要がある。
そこで我々は,医療機関のメンバーが出版するPubMedの出版物に基づいて,研究協力者を推薦するための検索強化世代システム(RAG)を開発し,評価した。
このシステムは、ドメイン固有の埋め込み生成にPubMedBERTを使用し、生成合成にローカルにデプロイされたLLaMA3モデルを使用する。
本研究は, 局所展開制約下での生物医学的知識発見を支援するために, ドメイン特化エンコーダと軽量LLMを統合することの実現可能性と有用性を示す。
関連論文リスト
- Utilizing Large Language Models for Zero-Shot Medical Ontology Extension from Clinical Notes [13.564947974902429]
CLOZEは大規模言語モデル(LLM)を用いて臨床ノートから医療機関を自動的に抽出する新しいフレームワークである。
CLOZEは、言語理解と事前訓練されたLLMの広範な知識を活かして、病気に関連する概念を効果的に識別し、複雑な階層関係を捉える。
論文 参考訳(メタデータ) (2025-11-20T17:00:46Z) - Biomedical Literature Q&A System Using Retrieval-Augmented Generation (RAG) [0.0]
本報告では, バイオメディカル文献質問応答システム(Q&A)について述べる。
このシステムは、PubMedの記事、キュレートされたQ&Aデータセット、医療百科事典など、さまざまなソースを統合している。
このシステムは一般の医療クエリとドメイン固有のタスクの両方をサポートし、乳がんの文献に焦点を絞った評価を行う。
論文 参考訳(メタデータ) (2025-09-05T21:29:52Z) - LLMEval-Med: A Real-world Clinical Benchmark for Medical LLMs with Physician Validation [58.25892575437433]
医学における大規模言語モデル (LLMs) の評価は, 医療応用には精度が高く, 誤差の少ないため重要である。
LLMEval-Medは、5つの中核医療領域をカバーする新しいベンチマークであり、現実の電子健康記録から得られた2,996の質問と専門家が設計した臨床シナリオを含む。
論文 参考訳(メタデータ) (2025-06-04T15:43:14Z) - Advancing AI Research Assistants with Expert-Involved Learning [84.30323604785646]
大規模言語モデル (LLM) と大規模マルチモーダルモデル (LMM) は、生物医学的な発見を促進することを約束するが、その信頼性は未定である。
ARIEL(AI Research Assistant for Expert-in-the-Loop Learning)は,オープンソースの評価・最適化フレームワークである。
LMMは詳細な視覚的推論に苦しむのに対し、最先端のモデルでは流動性はあるが不完全な要約を生成する。
論文 参考訳(メタデータ) (2025-05-03T14:21:48Z) - Reviewing Clinical Knowledge in Medical Large Language Models: Training and Beyond [17.18909853414425]
臨床知識は現実の医療実践において広く研究されている。
この種の知識を大規模言語モデルに統合することを目的とした研究努力が顕著に増加した。
臨床知識をトレーニングベース、KG支援、RAG支援LSMに組み込むための様々な取り組みについてレビューする。
論文 参考訳(メタデータ) (2025-02-28T12:00:51Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z) - STRICTA: Structured Reasoning in Critical Text Assessment for Peer Review and Beyond [68.47402386668846]
本研究では,テキストアセスメントをステップワイド推論プロセスとしてモデル化するために,Structured Reasoning In Critical Text Assessment (STRICTA)を導入する。
STRICTAは、因果性理論に基づく相互接続推論ステップのグラフに評価を分解する。
約40人のバイオメディカル専門家が20以上の論文について4000以上の推論ステップのデータセットにSTRICTAを適用した。
論文 参考訳(メタデータ) (2024-09-09T06:55:37Z) - LLMs are not Zero-Shot Reasoners for Biomedical Information Extraction [13.965777046473885]
大規模言語モデル(LLM)は、医療分野のアプリケーションにますます採用されている。
質問応答や文書要約といったタスクに関して、ドメインエキスパートのパフォーマンスに到達します。
LLMがバイオメディカル領域で伝統的に追求されるタスクでどの程度うまく機能するかは不明である。
論文 参考訳(メタデータ) (2024-08-22T09:37:40Z) - AI Hospital: Benchmarking Large Language Models in a Multi-agent Medical Interaction Simulator [69.51568871044454]
我々は,emphDoctorをプレイヤとして,NPC間の動的医療相互作用をシミュレーションするフレームワークであるtextbfAI Hospitalを紹介した。
この設定は臨床シナリオにおけるLCMの現実的な評価を可能にする。
高品質な中国の医療記録とNPCを利用したマルチビュー医療評価ベンチマークを開発した。
論文 参考訳(メタデータ) (2024-02-15T06:46:48Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。