論文の概要: Contrastive Language Prompting to Ease False Positives in Medical Anomaly Detection
- arxiv url: http://arxiv.org/abs/2411.07546v1
- Date: Tue, 12 Nov 2024 04:50:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:19:33.374996
- Title: Contrastive Language Prompting to Ease False Positives in Medical Anomaly Detection
- Title(参考訳): 医学的異常検出における偽陽性を助長するコントラスト言語
- Authors: YeongHyeon Park, Myung Jin Kim, Hyeong Seok Kim,
- Abstract要約: 事前学習された視覚言語モデル、コントラスト言語画像事前学習(CLIP)は、テキストプロンプトで様々な下流タスクを遂行する。
CLIPの強力なマルチモーダルデータ機能にもかかわらず、医療アプリケーションのような特殊な環境に限られている。
正と負の両方のテキストプロンプトを利用するCLAP(Contrastive LAnguage Prompting)手法を提案する。
- 参考スコア(独自算出の注目度): 1.071905437875598
- License:
- Abstract: A pre-trained visual-language model, contrastive language-image pre-training (CLIP), successfully accomplishes various downstream tasks with text prompts, such as finding images or localizing regions within the image. Despite CLIP's strong multi-modal data capabilities, it remains limited in specialized environments, such as medical applications. For this purpose, many CLIP variants-i.e., BioMedCLIP, and MedCLIP-SAMv2-have emerged, but false positives related to normal regions persist. Thus, we aim to present a simple yet important goal of reducing false positives in medical anomaly detection. We introduce a Contrastive LAnguage Prompting (CLAP) method that leverages both positive and negative text prompts. This straightforward approach identifies potential lesion regions by visual attention to the positive prompts in the given image. To reduce false positives, we attenuate attention on normal regions using negative prompts. Extensive experiments with the BMAD dataset, including six biomedical benchmarks, demonstrate that CLAP method enhances anomaly detection performance. Our future plans include developing an automated fine prompting method for more practical usage.
- Abstract(参考訳): 事前学習された視覚言語モデル、コントラスト言語画像事前学習(CLIP)は、画像の検索や画像内の領域のローカライズといったテキストプロンプトによって、さまざまな下流タスクを成功させる。
CLIPの強力なマルチモーダルデータ機能にもかかわらず、医療アプリケーションのような特殊な環境に限られている。
この目的のために、多くのCLIP変異体(BioMedCLIP、MedCLIP-SAMv2)が出現したが、正常な領域に関連する偽陽性が持続した。
そこで本研究では,医学的異常検出における偽陽性を減らすための,シンプルかつ重要な目標を提案する。
正と負の両方のテキストプロンプトを利用するCLAP(Contrastive LAnguage Prompting)手法を提案する。
この簡単なアプローチは、与えられた画像の正のプロンプトに対する視覚的注意によって、潜在的な病変領域を特定する。
偽陽性を減らすために、負のプロンプトを用いて正常な領域への注意を減らした。
6つのバイオメディカルベンチマークを含むBMADデータセットによる大規模な実験は、CLAP法が異常検出性能を向上させることを示した。
我々の将来の計画には、より実用的な使用のための自動化された微細プロンプト手法の開発が含まれる。
関連論文リスト
- OOD-SEG: Out-Of-Distribution detection for image SEGmentation with sparse multi-class positive-only annotations [4.9547168429120205]
医療・外科画像におけるディープニューラルネットワークはいくつかの課題に直面しており、そのうちの2つはこの問題に対処することを目指している。
まず、医用画像のための完全なピクセルレベルのセグメンテーションラベルを取得するのに時間がかかり、ドメインの専門知識を必要とする。
第二に、典型的なセグメンテーションパイプラインは、配布外ピクセルを検出できず、デプロイ中に急激なアウトプットが発生する傾向がある。
論文 参考訳(メタデータ) (2024-11-14T16:06:30Z) - Few Exemplar-Based General Medical Image Segmentation via Domain-Aware Selective Adaptation [28.186785488818135]
医用画像のセグメンテーションは、ドメインのギャップ、データモダリティの変化、ドメインの知識や専門家への依存による課題を引き起こす。
本稿では,自然画像で訓練した大規模モデルから学習した一般知識を,対応する医療領域・モダリティに適応させるための,ドメイン対応選択的適応手法を提案する。
論文 参考訳(メタデータ) (2024-10-11T21:00:57Z) - A New Benchmark and Reverse Validation Method for Passage-level
Hallucination Detection [63.56136319976554]
大きな言語モデル(LLM)は幻覚を発生させ、ミッションクリティカルなタスクにデプロイすると大きなダメージを与える可能性がある。
本稿では,逆検証に基づく自己チェック手法を提案し,ゼロリソース方式で事実誤りを自動的に検出する。
提案手法と既存のゼロリソース検出手法を2つのデータセット上で実証的に評価した。
論文 参考訳(メタデータ) (2023-10-10T10:14:59Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - CLIP-Lung: Textual Knowledge-Guided Lung Nodule Malignancy Prediction [34.35547775426628]
肺結節の予測は、高度なディープラーニング技術と効果的なトリックによって強化されている。
現在の手法は主に1ホットカテゴリーラベルを用いたクロスエントロピー損失で訓練されている。
肺悪性度予測のためのテキスト知識誘導フレームワークであるCLIP-Lungを提案する。
論文 参考訳(メタデータ) (2023-04-17T06:29:14Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Self-supervised learning-based cervical cytology for the triage of
HPV-positive women in resource-limited settings and low-data regime [8.981411680742973]
パパニコラオ検体をスクリーニングすることは、頸部がん関連死亡率の低下に非常に効果があることが証明されている。
深層学習に基づく遠隔細胞診診断は魅力的な代替手段として現れるが、大規模な注釈付きトレーニングデータセットの収集が必要である。
本稿では, スライド画像全体から抽出できるラベルなし画像の豊富さが, 自己教師型学習手法の肥大化を実証する。
論文 参考訳(メタデータ) (2023-02-10T11:46:48Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - Label Cleaning Multiple Instance Learning: Refining Coarse Annotations
on Single Whole-Slide Images [83.7047542725469]
病理検体の全スライディング画像(WSI)における癌領域のアノテーションは、臨床診断、生医学研究、機械学習アルゴリズムの開発において重要な役割を担っている。
本稿では,外部トレーニングデータを必要とせず,単一のWSI上で粗いアノテーションを洗練するためのLC-MIL (Label Cleaning Multiple Instance Learning) を提案する。
乳癌リンパ節転移,肝癌,大腸癌の検体を併用した異種 WSI 実験の結果,LC-MIL は粗いアノテーションを著しく改善し,単一スライドから学習しながらも,最先端の代替品よりも優れていた。
論文 参考訳(メタデータ) (2021-09-22T15:06:06Z) - Hurtful Words: Quantifying Biases in Clinical Contextual Word Embeddings [16.136832979324467]
本研究は,MIMIC-III 病院データセットから医療用ノートにディープ埋め込みモデル(BERT)を事前訓練する。
文脈的単語埋め込みによって捉えられる危険な潜伏関係を同定する。
我々は,50以上の下流臨床予測課題において,フェアネスの定義の異なる性能ギャップを評価する。
論文 参考訳(メタデータ) (2020-03-11T23:21:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。