論文の概要: MPIB: A Benchmark for Medical Prompt Injection Attacks and Clinical Safety in LLMs
- arxiv url: http://arxiv.org/abs/2602.06268v1
- Date: Fri, 06 Feb 2026 00:03:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.160618
- Title: MPIB: A Benchmark for Medical Prompt Injection Attacks and Clinical Safety in LLMs
- Title(参考訳): MPIB : LLMにおける医療用プロンプトインジェクションの基準と臨床安全性
- Authors: Junhyeok Lee, Han Jang, Kyu Sung Choi,
- Abstract要約: メディカル・プロンプト・インジェクション・ベンチマーク(MPIB)は、直接的インジェクションと間接的RAGを介するインジェクションの両方で臨床安全性を評価するためのデータセット・アンド・ベンチマーク・スイートである。
MPIBは、重症度の高い臨床的有害事象を測定する臨床ハームイベントレート(CHER)を通じて、結果レベルのリスクを強調している。
臨床用プロンプトインジェクションの再現性および体系的研究を支援するため,MPIBを評価コード,対向ベースライン,包括的ドキュメンテーションとともにリリースする。
- 参考スコア(独自算出の注目度): 2.2090506971647144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) and Retrieval-Augmented Generation (RAG) systems are increasingly integrated into clinical workflows; however, prompt injection attacks can steer these systems toward clinically unsafe or misleading outputs. We introduce the Medical Prompt Injection Benchmark (MPIB), a dataset-and-benchmark suite for evaluating clinical safety under both direct prompt injection and indirect, RAG-mediated injection across clinically grounded tasks. MPIB emphasizes outcome-level risk via the Clinical Harm Event Rate (CHER), which measures high-severity clinical harm events under a clinically grounded taxonomy, and reports CHER alongside Attack Success Rate (ASR) to disentangle instruction compliance from downstream patient risk. The benchmark comprises 9,697 curated instances constructed through multi-stage quality gates and clinical safety linting. Evaluating MPIB across a diverse set of baseline LLMs and defense configurations, we find that ASR and CHER can diverge substantially, and that robustness depends critically on whether adversarial instructions appear in the user query or in retrieved context. We release MPIB with evaluation code, adversarial baselines, and comprehensive documentation to support reproducible and systematic research on clinical prompt injection. Code and data are available at GitHub (code) and Hugging Face (data).
- Abstract(参考訳): 大規模言語モデル (LLMs) とレトリーバル拡張生成システム (RAG) は、ますます臨床ワークフローに統合されつつあるが、迅速なインジェクション攻撃は、これらのシステムを臨床的に安全でない、あるいは誤解を招くアウトプットへと導くことができる。
臨床現場における直接注射とRAGを介する間接注射の両方で臨床安全性を評価するためのデータセット・アンド・ベンチマーク・スイートであるMPIB(Medicical Prompt Injection Benchmark)を紹介する。
MPIBは臨床ハーム事象率(CHER)による結果レベルのリスクを強調しており、これは臨床的根拠のある分類の下での重篤な臨床害事象を計測し、CERとASRを併用して下流患者のリスクからの命令順守を阻害する。
ベンチマークは、多段階品質ゲートと臨床安全リンティングによって構築された9,697個のキュレートされたインスタンスからなる。
多様なベースラインLLMとディフェンス構成にまたがってMPIBを評価すると、ASRとCHERは著しくばらつきがあり、ユーザクエリに敵対的な命令が現れるか、あるいは検索されたコンテキストに現れるかによって、ロバスト性が重要な関係があることが分かる。
臨床用プロンプトインジェクションの再現性および体系的研究を支援するため,MPIBを評価コード,対向ベースライン,包括的ドキュメンテーションとともにリリースする。
コードとデータはGitHub(コード)とHugging Face(データ)で入手できる。
関連論文リスト
- AgentsEval: Clinically Faithful Evaluation of Medical Imaging Reports via Multi-Agent Reasoning [73.50200033931148]
本稿では,放射線科医の協調診断ワークフローをエミュレートしたマルチエージェントストリーム推論フレームワークであるAgensEvalを紹介する。
評価プロセスを基準定義、エビデンス抽出、アライメント、一貫性スコアなどの解釈可能なステップに分割することで、AgensEvalは明確な推論トレースと構造化された臨床フィードバックを提供する。
実験結果から,AgensEvalは,言い換え,意味的,スタイリスティックな摂動の下でも頑健な臨床的整合性,意味的忠実性,解釈可能な評価を提供することが示された。
論文 参考訳(メタデータ) (2026-01-23T11:59:13Z) - Benchmarking Egocentric Clinical Intent Understanding Capability for Medical Multimodal Large Language Models [48.95516224614331]
MedGaze-Benchは、臨床医の視線を認知的カーソルとして活用し、手術、緊急シミュレーション、診断解釈における意図的理解を評価する最初のベンチマークである。
本ベンチマークでは,解剖学的構造の視覚的均一性,臨床における時間・因果依存性の厳格化,安全プロトコルへの暗黙の順守という3つの基本的な課題に対処する。
論文 参考訳(メタデータ) (2026-01-11T02:20:40Z) - ClinDEF: A Dynamic Evaluation Framework for Large Language Models in Clinical Reasoning [58.01333341218153]
ClinDEF(ClinDEF)は, LLMにおける臨床推論をシミュレートされた診断対話を用いて評価する動的フレームワークである。
本手法は, 患者を発症し, LLMをベースとした医師と自動患者エージェントとのマルチターンインタラクションを容易にする。
実験により、ClinDEFは最先端のLSMにおいて重要な臨床推論ギャップを効果的に露呈することが示された。
論文 参考訳(メタデータ) (2025-12-29T12:58:58Z) - CARE-RAG - Clinical Assessment and Reasoning in RAG [43.1450755645803]
大規模言語モデル(LLM)における検索と推論のギャップについて検討する。
推論の正確性,一貫性,忠実度を計測する評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-20T02:44:55Z) - RxSafeBench: Identifying Medication Safety Issues of Large Language Models in Simulated Consultation [19.41567007880886]
大規模言語モデル(LLM)は多様な医療タスクにおいて顕著な進歩を遂げた。
しかし、それらの医薬品の安全性に関する研究は、現実世界のデータセットが不足しているため、依然として限られている。
臨床相談をシミュレートし,評価し,LSMの薬剤安全性を体系的に評価する枠組みを提案する。
論文 参考訳(メタデータ) (2025-11-06T12:56:34Z) - Demo: Guide-RAG: Evidence-Driven Corpus Curation for Retrieval-Augmented Generation in Long COVID [3.716027375029187]
慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期における慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期慢性期における6症例
臨床ガイドラインと高品質な体系的レビューを併用したRAGコーパスの構成は,狭い単一ガイドラインアプローチと大規模文献データベースの両方で一貫して優れていた。
論文 参考訳(メタデータ) (2025-10-17T16:05:52Z) - Simulating Viva Voce Examinations to Evaluate Clinical Reasoning in Large Language Models [51.91760712805404]
大規模言語モデル(LLM)におけるシーケンシャルな臨床推論を評価するためのベンチマークであるVivaBenchを紹介する。
本データセットは,医療訓練における(口頭)検査をシミュレートする対話的シナリオとして構成された1762名の医師による臨床ヴィグネットから構成される。
本分析では,臨床における認知的誤りを反映するいくつかの障害モードを同定した。
論文 参考訳(メタデータ) (2025-10-11T16:24:35Z) - A Narrative-Driven Computational Framework for Clinician Burnout Surveillance [0.5281694565226512]
臨床医のバーンアウトは、特にICU(High-acuity intensive care Unit)において、患者の安全に重大な脅威をもたらす
本研究では,Beth Israel Deaconess Medical Centerの電子健康記録から得られたMIMIC-IVから,1万 ICU放電サマリーを解析した。
このデータセットは、バイタルサイン、医療命令、診断、処置、治療、特定自由テキスト臨床ノートを含む多様な患者データを含んでいる。
論文 参考訳(メタデータ) (2025-09-01T19:05:26Z) - Retrieval-Augmented Clinical Benchmarking for Contextual Model Testing in Kenyan Primary Care: A Methodology Paper [0.609562679184219]
大規模言語モデル(LLM)は、低リソース環境での医療アクセスを改善するという約束を持っているが、アフリカのプライマリケアにおけるそれらの効果は、まだ探索されていない。
ケニアのレベル2と3の臨床ケアに焦点を当てたベンチマークデータセットと評価フレームワークを作成するための方法論を提案する。
本手法は,ケニアの全国ガイドラインに臨床質問を根拠として,地域標準との整合性を確保するためにRAG (Regegration augmented generation) を用いている。
論文 参考訳(メタデータ) (2025-07-19T13:25:26Z) - Medchain: Bridging the Gap Between LLM Agents and Clinical Practice with Interactive Sequence [68.05876437208505]
臨床ワークフローの5つの重要な段階をカバーする12,163の臨床症例のデータセットであるMedChainを提示する。
フィードバック機構とMCase-RAGモジュールを統合したAIシステムであるMedChain-Agentも提案する。
論文 参考訳(メタデータ) (2024-12-02T15:25:02Z) - Comprehensive and Practical Evaluation of Retrieval-Augmented Generation Systems for Medical Question Answering [70.44269982045415]
Retrieval-augmented Generation (RAG) は,大規模言語モデル (LLM) の性能向上のための有望なアプローチとして登場した。
医療用QAデータセットに様々な補助的要素を提供するMedRGB(MedRGB)を導入する。
実験結果から,検索した文書のノイズや誤情報の処理能力に限界があることが判明した。
論文 参考訳(メタデータ) (2024-11-14T06:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。