論文の概要: Advanced Multi-Architecture Deep Learning Framework for BIRADS-Based Mammographic Image Retrieval: Comprehensive Performance Analysis with Super-Ensemble Optimization
- arxiv url: http://arxiv.org/abs/2508.04790v1
- Date: Wed, 06 Aug 2025 18:05:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.610067
- Title: Advanced Multi-Architecture Deep Learning Framework for BIRADS-Based Mammographic Image Retrieval: Comprehensive Performance Analysis with Super-Ensemble Optimization
- Title(参考訳): BIRADSに基づくマンモグラフィ画像検索のための高度なマルチアーキテクチャディープラーニングフレームワーク:スーパーアンサンブル最適化による総合的性能解析
- Authors: MD Shaikh Rahman, Feiroz Humayara, Syed Maudud E Rabbi, Muhammad Mahbubur Rashid,
- Abstract要約: マンモグラフィ画像検索システムでは、5つの異なるクラスにまたがる正確なBIRADSカテゴリマッチングが必要である。
現在の医用画像検索研究は方法論的限界に悩まされている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Content-based mammographic image retrieval systems require exact BIRADS categorical matching across five distinct classes, presenting significantly greater complexity than binary classification tasks commonly addressed in literature. Current medical image retrieval studies suffer from methodological limitations including inadequate sample sizes, improper data splitting, and insufficient statistical validation that hinder clinical translation. We developed a comprehensive evaluation framework systematically comparing CNN architectures (DenseNet121, ResNet50, VGG16) with advanced training strategies including sophisticated fine-tuning, metric learning, and super-ensemble optimization. Our evaluation employed rigorous stratified data splitting (50%/20%/30% train/validation/test), 602 test queries, and systematic validation using bootstrap confidence intervals with 1,000 samples. Advanced fine-tuning with differential learning rates achieved substantial improvements: DenseNet121 (34.79% precision@10, 19.64% improvement) and ResNet50 (34.54%, 19.58% improvement). Super-ensemble optimization combining complementary architectures achieved 36.33% precision@10 (95% CI: [34.78%, 37.88%]), representing 24.93% improvement over baseline and providing 3.6 relevant cases per query. Statistical analysis revealed significant performance differences between optimization strategies (p<0.001) with large effect sizes (Cohen's d>0.8), while maintaining practical search efficiency (2.8milliseconds). Performance significantly exceeds realistic expectations for 5-class medical retrieval tasks, where literature suggests 20-25% precision@10 represents achievable performance for exact BIRADS matching. Our framework establishes new performance benchmarks while providing evidence-based architecture selection guidelines for clinical deployment in diagnostic support and quality assurance applications.
- Abstract(参考訳): コンテントベースのマンモグラフィ画像検索システムでは、5つの異なるクラスにまたがる正確なBIRADS分類マッチングが必要である。
最近の医用画像検索研究は、サンプルサイズが不適切なこと、不適切なデータ分割、臨床翻訳を妨げる統計的検証が不十分であるなど、方法論的な限界に悩まされている。
我々は、CNNアーキテクチャ(DenseNet121、ResNet50、VGG16)を高度な微調整、メートル法学習、スーパーアンサンブル最適化を含む高度なトレーニング戦略と体系的に比較する包括的な評価フレームワークを開発した。
本評価では,厳密な階層化データ分割(50%/20%/30%トレイン/バリデーション/テスト),602テストクエリ,1000サンプルを用いたブートストラップ信頼区間を用いた系統的検証を行った。
DenseNet121(34.79%の精度@10、19.64%の改善)とResNet50(34.54%、19.58%の改善)。
補完アーキテクチャを組み合わせたスーパーアンサンブル最適化は36.33%の精度@10(95% CI: [34.78%, 37.88%])を達成した。
統計的解析により, 実用的な探索効率(2.8ミリ秒)を維持しつつ, 大きな効果量を持つ最適化戦略 (p<0.001) と大きな効果量 (Cohen's d>0.8) の間に有意な性能差が認められた。
文献によると、20-25%の精度@10は、正確なBIRADSマッチングの達成可能なパフォーマンスを示している。
本フレームワークは,診断支援および品質保証アプリケーションにおける臨床展開のためのエビデンスベースのアーキテクチャ選択ガイドラインを提供しながら,新たなパフォーマンスベンチマークを確立する。
関連論文リスト
- Addressing High Class Imbalance in Multi-Class Diabetic Retinopathy Severity Grading with Augmentation and Transfer Learning [1.5939351525664014]
本稿では,2型および5型糖尿病網膜症(DR)分類のための堅牢なディープラーニングフレームワークを提案する。
2値分類では, 99.9%の精度, 98.6%の精度, 99.3%のリコール, 98.9%のF1スコア, 99.4%のAUCが得られた。
より困難な5クラス重度分類タスクでは、84.6%の競合精度と94.1%のAUCが、いくつかの既存手法より優れている。
論文 参考訳(メタデータ) (2025-07-23T01:52:27Z) - Classifying Dental Care Providers Through Machine Learning with Features Ranking [0.0]
本研究では, 歯科医療機関の分類における機械学習(ML)モデルの適用について検討した。
データセットには、サービスカウント(予防、治療、試験)、デリバリーシステム(FFS、管理ケア)、受益者の人口統計が含まれる。
本研究は,モデル効率と精度の向上における特徴選択の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-04T21:45:40Z) - Combatting Dimensional Collapse in LLM Pre-Training Data via Diversified File Selection [65.96556073745197]
DiverSified File selection algorithm (DiSF) は特徴空間における最も非相関なテキストファイルを選択するために提案される。
DiSFは590万のトレーニングファイルの98.5%をSlimPajamaに保存し、50Bのトレーニング予算内でのデータ事前トレーニングを上回っている。
論文 参考訳(メタデータ) (2025-04-29T11:13:18Z) - Deep Learning Approach for Enhancing Oral Squamous Cell Carcinoma with LIME Explainable AI Technique [0.0]
データセットは5192イメージ(2435ノーマルと2511 OSCC)で構成されている。
本研究では,ResNet101,DenseNet121,VGG16,EfficientnetB3の4つのディープラーニングアーキテクチャを選択した。
効率の良いNetB3は98.33%とF1スコア(0.9844)で最高であり、他のモデルと比べて計算能力は著しく低下した。
論文 参考訳(メタデータ) (2024-11-21T14:53:59Z) - Comparative Analysis and Ensemble Enhancement of Leading CNN Architectures for Breast Cancer Classification [0.0]
本研究は,病理組織像を用いた乳癌分類への新規かつ正確なアプローチを提案する。
さまざまな画像データセット間で、主要な畳み込みニューラルネットワーク(CNN)モデルを体系的に比較する。
そこで本研究では,スタンドアロンCNNモデルにおいて,例外的分類精度を実現するために必要な設定について検討した。
論文 参考訳(メタデータ) (2024-10-04T11:31:43Z) - Decorrelating Structure via Adapters Makes Ensemble Learning Practical for Semi-supervised Learning [50.868594148443215]
コンピュータビジョンでは、従来のアンサンブル学習法は訓練効率が低いか、限られた性能を示す。
本稿では,視覚的タスクに適応器を用いたDecorrelating Structure(DSA)による軽量,損失関数なし,アーキテクチャに依存しないアンサンブル学習を提案する。
論文 参考訳(メタデータ) (2024-08-08T01:31:38Z) - Efficient Representation Learning for Healthcare with
Cross-Architectural Self-Supervision [5.439020425819001]
この課題に対応するために、クロスアーキテクチャー・セルフスーパービジョン(CASS)を紹介します。
そこで,CASSで訓練されたCNNとTransformerは,4つの多様な医療データセットにおいて,既存の自己教師型学習方法よりも優れていることを示す。
また、CASSはバッチサイズの変化やエポックの事前訓練にかなり堅牢であることを示し、医療アプリケーションにおける機械学習の候補として適している。
論文 参考訳(メタデータ) (2023-08-19T15:57:19Z) - Patch-Level Contrasting without Patch Correspondence for Accurate and
Dense Contrastive Representation Learning [79.43940012723539]
ADCLRは、正確で高密度な視覚表現を学習するための自己教師型学習フレームワークである。
提案手法は, コントラッシブな手法のための新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-06-23T07:38:09Z) - Getting More Juice Out of Your Data: Hard Pair Refinement Enhances Visual-Language Models Without Extra Data [122.282521548393]
コントラスト言語-画像事前学習 (CLIP) は, クロスモーダルな画像-テキスト表現学習の標準となっている。
HELIPは、CLIPモデルを改善するためのコスト効率のよい戦略であり、継続的なトレーニングにおいて既存のデータセット内の挑戦的なテキストイメージペアを利用することで、CLIPモデルを改善する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - SLCA: Slow Learner with Classifier Alignment for Continual Learning on a
Pre-trained Model [73.80068155830708]
予備学習モデル(CLPM)を用いた連続学習のための広範囲な解析法を提案する。
Slow Learner with Alignment (SLCA) というシンプルなアプローチを提案する。
さまざまなシナリオにおいて、私たちの提案はCLPMの大幅な改善を提供します。
論文 参考訳(メタデータ) (2023-03-09T08:57:01Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z) - A Simple Framework for Contrastive Learning of Visual Representations [116.37752766922407]
本稿では,視覚表現のコントラスト学習のためのシンプルなフレームワークであるSimCLRについて述べる。
我々は,データ拡張の構成が効果的な予測タスクを定義する上で重要な役割を担っていることを示す。
我々は、ImageNet上での自己教師付き半教師付き学習において、従来の手法よりもかなり優れています。
論文 参考訳(メタデータ) (2020-02-13T18:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。