論文の概要: GLAM: Geometry-Guided Local Alignment for Multi-View VLP in Mammography
- arxiv url: http://arxiv.org/abs/2509.10344v1
- Date: Fri, 12 Sep 2025 15:33:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:08.144029
- Title: GLAM: Geometry-Guided Local Alignment for Multi-View VLP in Mammography
- Title(参考訳): GLAM:マンモグラフィにおける多視点VLPのための幾何学誘導局所アライメント
- Authors: Yuexi Du, Lihui Chen, Nicha C. Dvornek,
- Abstract要約: 本稿では,多視点マンモグラフィのためのGLAM:Global and Local Alignment for Multi-view Mammographyを提案する。
本モデルでは,グローバル・ローカル・ローカル・ビジュアル・ビジュアル・ビジュアル・コントラッシブ・ラーニングを併用し,局所的視点アライメントときめ細かな局所特徴を学習する。
- 参考スコア(独自算出の注目度): 5.308584108793016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mammography screening is an essential tool for early detection of breast cancer. The speed and accuracy of mammography interpretation have the potential to be improved with deep learning methods. However, the development of a foundation visual language model (VLM) is hindered by limited data and domain differences between natural and medical images. Existing mammography VLMs, adapted from natural images, often ignore domain-specific characteristics, such as multi-view relationships in mammography. Unlike radiologists who analyze both views together to process ipsilateral correspondence, current methods treat them as independent images or do not properly model the multi-view correspondence learning, losing critical geometric context and resulting in suboptimal prediction. We propose GLAM: Global and Local Alignment for Multi-view mammography for VLM pretraining using geometry guidance. By leveraging the prior knowledge about the multi-view imaging process of mammograms, our model learns local cross-view alignments and fine-grained local features through joint global and local, visual-visual, and visual-language contrastive learning. Pretrained on EMBED [14], one of the largest open mammography datasets, our model outperforms baselines across multiple datasets under different settings.
- Abstract(参考訳): 乳がんの早期発見にはマンモグラフィ検診が不可欠である。
マンモグラフィーの解釈の速度と精度は、深層学習法によって改善される可能性がある。
しかし、基礎視覚言語モデル(VLM)の開発は、限られたデータと、自然画像と医用画像の領域差によって妨げられている。
既存のマンモグラフィーVLMは自然画像から適応しており、マンモグラフィーにおけるマルチビュー関係のようなドメイン固有の特徴を無視することが多い。
両ビューを一緒に分析して偶発的対応を処理している放射線学者とは異なり、現在の方法では独立画像として扱うか、多視点対応学習を適切にモデル化せず、批判的な幾何学的文脈を失い、最適でない予測をもたらす。
本稿では,多視点マンモグラフィのためのGLAM:Global and Local Alignment for Multi-view Mammographyを提案する。
マンモグラムの多視点画像処理に関する先行知識を活用することで, 局所的横断的アライメントと局所的特徴の微粒化を, 局所的, 局所的, 視覚的, 視覚的, 視覚的コントラスト学習を通じて学習する。
最大のオープンマンモグラフィーデータセットであるMBED [14]で事前訓練された私たちのモデルは、異なる設定下で複数のデータセットでベースラインを上回ります。
関連論文リスト
- Optimizing Breast Cancer Detection in Mammograms: A Comprehensive Study of Transfer Learning, Resolution Reduction, and Multi-View Classification [0.0]
X線撮影技術であるマンモグラフィーは、乳がんの早期発見において重要な役割を担っている。
コンピュータ支援による検出と診断手法が提案され、人工知能と機械学習の進歩をますます活用している。
本稿では,シングルビューおよびマルチビューマンモグラム分類手法の有効性を評価し,比較する。
論文 参考訳(メタデータ) (2025-03-25T11:51:21Z) - Multi-View and Multi-Scale Alignment for Contrastive Language-Image Pre-training in Mammography [4.004641316826348]
マンモグラフィーへの完全CLIPモデルの最初の適応の一つを提案する。
われわれはまず,マンモグラフィーの多視点性を活用した特別監視フレームワークを開発する。
最後に,データ制限に対処するために,医学知識を事前学習した大規模言語モデルに対して,パラメータ効率のよい微調整手法を取り入れた。
論文 参考訳(メタデータ) (2024-09-26T17:56:59Z) - Unlocking the Power of Spatial and Temporal Information in Medical Multimodal Pre-training [99.2891802841936]
我々は,空間的・時間的微粒なモデリングのためのMed-STフレームワークを提案する。
空間モデリングでは、Med-STはMixture of View Expert (MoVE)アーキテクチャを使用して、正面と横の両方のビューから異なる視覚的特徴を統合する。
時間的モデリングのために,フォワードマッピング分類 (FMC) とリバースマッピング回帰 (RMR) による新たな双方向サイクル整合性目標を提案する。
論文 参考訳(メタデータ) (2024-05-30T03:15:09Z) - MV-Swin-T: Mammogram Classification with Multi-view Swin Transformer [0.257133335028485]
マンモグラフィ画像分類における課題に対処するために,トランスフォーマーに基づく革新的なマルチビューネットワークを提案する。
提案手法では,ウィンドウベースの動的アテンションブロックを導入し,マルチビュー情報の効果的な統合を容易にする。
論文 参考訳(メタデータ) (2024-02-26T04:41:04Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。