論文の概要: Feature Extraction for Generative Medical Imaging Evaluation: New Evidence Against an Evolving Trend
- arxiv url: http://arxiv.org/abs/2311.13717v5
- Date: Tue, 22 Oct 2024 12:42:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-23 14:25:08.483145
- Title: Feature Extraction for Generative Medical Imaging Evaluation: New Evidence Against an Evolving Trend
- Title(参考訳): 創発的医用画像評価のための特徴抽出 : 進化する傾向に対する新たな証拠
- Authors: McKell Woodland, Austin Castelo, Mais Al Taie, Jessica Albuquerque Marques Silva, Mohamed Eltaher, Frank Mohn, Alexander Shieh, Suprateek Kundu, Joshua P. Yung, Ankit B. Patel, Kristy K. Brock,
- Abstract要約: Fr'echet Inception Distance (FID)は、合成画像の品質を評価するための指標である。
最近の傾向は、医用画像で訓練された特徴抽出器による医用画像へのFIDの適用である。
本研究では,ImageNetをベースとした抽出器がRadImageNetよりも人間の判断に整合していることを示すことで,この実践に挑戦する。
- 参考スコア(独自算出の注目度): 32.50759591204628
- License:
- Abstract: Fr\'echet Inception Distance (FID) is a widely used metric for assessing synthetic image quality. It relies on an ImageNet-based feature extractor, making its applicability to medical imaging unclear. A recent trend is to adapt FID to medical imaging through feature extractors trained on medical images. Our study challenges this practice by demonstrating that ImageNet-based extractors are more consistent and aligned with human judgment than their RadImageNet counterparts. We evaluated sixteen StyleGAN2 networks across four medical imaging modalities and four data augmentation techniques with Fr\'echet distances (FDs) computed using eleven ImageNet or RadImageNet-trained feature extractors. Comparison with human judgment via visual Turing tests revealed that ImageNet-based extractors produced rankings consistent with human judgment, with the FD derived from the ImageNet-trained SwAV extractor significantly correlating with expert evaluations. In contrast, RadImageNet-based rankings were volatile and inconsistent with human judgment. Our findings challenge prevailing assumptions, providing novel evidence that medical image-trained feature extractors do not inherently improve FDs and can even compromise their reliability. Our code is available at https://github.com/mckellwoodland/fid-med-eval.
- Abstract(参考訳): Fr'echet Inception Distance (FID)は、合成画像の品質を評価するために広く用いられている指標である。
ImageNetベースの特徴抽出装置に依存しており、医療画像に適用可能であるかどうかは不明だ。
最近のトレンドは、医用画像で訓練された特徴抽出器を通して、医用画像にFIDを適用することである。
本研究では,ImageNetをベースとした抽出器がRadImageNetよりも人間の判断に整合していることを示すことで,この実践に挑戦する。
我々は,Fr'echet distances (FDs) を用いた4つの医用画像モダリティと4つのデータ拡張技術を用いた16のStyleGAN2ネットワークの評価を行った。
視覚的チューリングテストによる人的判断と比較したところ,ImageNetをベースとした抽出機が人的判断と整合性のあるランキングを作成したのに対し,ImageNetをトレーニングしたSwaV抽出機から抽出したFDは専門家による評価と有意な相関を示した。
対照的に、RadImageNetベースのランキングは不安定であり、人間の判断とは矛盾していた。
以上の結果から,医用画像抽出装置はFDを本質的に改善せず,信頼性を損なうことさえできないという新たな証拠が得られた。
私たちのコードはhttps://github.com/mckellwoodland/fid-med-eval.comで利用可能です。
関連論文リスト
- Source Matters: Source Dataset Impact on Model Robustness in Medical Imaging [14.250975981451914]
我々は、ImageNetとRadImageNetが同等の分類性能を達成することを示す。
ImageNetは、共同ファウンダーに過度にフィットする傾向にある。
ImageNet-pretrained modelを使用する研究者は、モデルを再検討することを推奨する。
論文 参考訳(メタデータ) (2024-03-07T13:36:15Z) - Solving Sample-Level Out-of-Distribution Detection on 3D Medical Images [0.06117371161379209]
アウト・オブ・ディストリビューション(OOD)検出はデータサンプルの識別に役立ち、モデルの信頼性を高める。
近年,2次元医用画像に有望な結果をもたらすDLベースのOOD検出技術が開発されている。
しかし、これらのアプローチのほとんどを3D画像に拡張することは、計算的に難解である。
本稿では,DLを必要としないヒストグラムに基づく手法を提案する。
論文 参考訳(メタデータ) (2022-12-13T11:42:23Z) - Evaluating the Performance of StyleGAN2-ADA on Medical Images [1.093320965231788]
GAN(Generative Adversarial Network)は医療画像の分野で有望である。
本研究は,高分解能医用画像データセットに対するStyleGAN2-ADAの新たな応用として,これらの障害について検討する。
ネットワークの生成品質はFr'echet Inception Distance (FID)で定量的に測定され、ビジュアルチューリングテストで定性的に測定された。
論文 参考訳(メタデータ) (2022-10-07T19:18:55Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Transformer-Unet: Raw Image Processing with Unet [4.7944896477309555]
Unetの機能マップの代わりに、生画像にトランスフォーマーモジュールを追加することで、Transformer-Unetを提案する。
実験では、エンド・ツー・エンドのネットワークを構築し、従来の多くのUnetベースのアルゴリズムよりもセグメンテーション結果を得る。
論文 参考訳(メタデータ) (2021-09-17T09:03:10Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Contrastive Learning of Medical Visual Representations from Paired
Images and Text [38.91117443316013]
本研究では,自然発生した記述的ペアリングテキストを活用することで,医用視覚表現を学習するための教師なし戦略であるConVIRTを提案する。
この2つのモダリティ間の双方向のコントラスト的目的を通じて、ペア化されたテキストデータを用いて医療画像エンコーダを事前訓練する手法は、ドメインに依存しないため、追加の専門家による入力は不要である。
論文 参考訳(メタデータ) (2020-10-02T02:10:18Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - ElixirNet: Relation-aware Network Architecture Adaptation for Medical
Lesion Detection [90.13718478362337]
本稿では,1)TruncatedRPNが正負値と負値のバランスをとること,2)Auto-lesion Blockが自動的に医療画像にカスタマイズされ,地域提案間の関係認識操作が組み込まれること,3)Relation Transferモジュールが意味的関係を組み込むこと,の3つのコンポーネントを含む新しいElixirNetを紹介した。
DeepLesionとKits19の実験では、ElixirNetの有効性が証明され、パラメータが少なくてFPNよりも感度と精度が向上した。
論文 参考訳(メタデータ) (2020-03-03T05:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。