論文の概要: Investigation into using stochastic embedding representations for evaluating the trustworthiness of the Fréchet Inception Distance
- arxiv url: http://arxiv.org/abs/2601.21979v1
- Date: Thu, 29 Jan 2026 16:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:50.015619
- Title: Investigation into using stochastic embedding representations for evaluating the trustworthiness of the Fréchet Inception Distance
- Title(参考訳): Fréchet Inception Distanceの信頼性評価のための確率的埋め込み表現を用いた検討
- Authors: Ciaran Bench, Vivek Desai, Carlijn Roozemond, Ruben van Engen, Spencer A. Thomas,
- Abstract要約: 我々はFréchet Inception Distance(FID)の予測分散を計算するためにMonte Carloのドロップアウトを使用する。
本研究は,実験結果がトレーニングデータに比較して分布しない程度に,予測変動の大きさが相関していることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Feature embeddings acquired from pretrained models are widely used in medical applications of deep learning to assess the characteristics of datasets; e.g. to determine the quality of synthetic, generated medical images. The Fréchet Inception Distance (FID) is one popular synthetic image quality metric that relies on the assumption that the characteristic features of the data can be detected and encoded by an InceptionV3 model pretrained on ImageNet1K (natural images). While it is widely known that this makes it less effective for applications involving medical images, the extent to which the metric fails to capture meaningful differences in image characteristics is not obviously known. Here, we use Monte Carlo dropout to compute the predictive variance in the FID as well as a supplemental estimate of the predictive variance in the feature embedding model's latent representations. We show that the magnitudes of the predictive variances considered exhibit varying degrees of correlation with the extent to which test inputs (ImageNet1K validation set augmented at various strengths, and other external datasets) are out-of-distribution relative to its training data, providing some insight into the effectiveness of their use as indicators of the trustworthiness of the FID.
- Abstract(参考訳): 事前訓練されたモデルから得られた特徴埋め込みは、深層学習の医学的応用において、データセットの特徴を評価するために広く用いられている。
Fréchet Inception Distance (FID) は、画像Net1K(自然画像)で事前訓練されたInceptionV3モデルによってデータの特徴を検出および符号化できるという仮定に依存する、一般的な合成画像品質指標である。
医用画像を含むアプリケーションでは効果が低いことが広く知られているが、計測値が画像特性の有意な差を捉えていない程度は明らかに分かっていない。
ここではモンテカルロ・ドロップアウトを用いてFIDの予測分散を計算し、特徴埋め込みモデルの潜在表現における予測分散を補足的に推定する。
本研究では,FIDの信頼性を示す指標として,テスト入力(画像Net1K検証セット,その他の外部データセット)がトレーニングデータに比例して分布しない程度に異なる相関関係を示すことを示し,FIDの信頼性を示す指標としての有効性について考察した。
関連論文リスト
- A Meaningful Perturbation Metric for Evaluating Explainability Methods [55.09730499143998]
本稿では,画像生成モデルを用いて標的摂動を行う新しい手法を提案する。
具体的には,画像の忠実さを保ちながら,入力画像の高関連画素のみを塗布し,モデルの予測を変更することに焦点を当てる。
これは、しばしばアウト・オブ・ディストリビューションの修正を生み出し、信頼できない結果をもたらす既存のアプローチとは対照的である。
論文 参考訳(メタデータ) (2025-04-09T11:46:41Z) - Quantifying the uncertainty of model-based synthetic image quality metrics [0.0]
不確実性定量化(UQ)は、Fr'echet Autoencoder Distance (FAED)と呼ばれる特徴埋め込みモデルとFIDのような計量の信頼性の尺度を提供するために用いられる。
我々は、埋め込みの予測的分散と計算されたFAED値の標準偏差として不確実性を表現している。
その大きさは、入力がモデルのトレーニングデータに寄与しない程度と相関し、FAEDの信頼性を評価する能力の検証を可能にする。
論文 参考訳(メタデータ) (2025-04-04T17:41:58Z) - A Pragmatic Note on Evaluating Generative Models with Fréchet Inception Distance for Retinal Image Synthesis [1.2274782635747272]
Fr'echet Inception Distance (FID)はImageNet Pretrained Inception-v3ネットワークで計算され、生成モデルの最先端評価指標として広く利用されている。
本稿では,FIDとその関連指標がタスク固有の評価目標と不一致であるカラーベース撮影や光コヒーレンストモグラフィなどの網膜画像モダリティの症例について検討する。
論文 参考訳(メタデータ) (2025-02-24T13:54:57Z) - Epistemic Uncertainty for Generated Image Detection [107.62647907393377]
本稿では,創成モデルの時代において重要なセキュリティ問題に対処することを目的とした,てんかん不確実性によるAI生成画像検出のための新しいフレームワークを提案する。
我々の重要な洞察は、トレーニングとテストデータの分布の相違が、機械学習モデルのエピステマティック不確実性空間に顕著に現れていることに起因している。
論文 参考訳(メタデータ) (2024-12-08T11:32:25Z) - Fréchet Radiomic Distance (FRD): A Versatile Metric for Comparing Medical Imaging Datasets [13.737058479403311]
Fr'echet Radiomic Distance (Fr'echet Radiomic Distance) という医療画像に適した新しい知覚基準を導入する。
FRDは、様々な医療画像の分野で、他の画像分布指標よりも優れていることを示す。
FRDは、低いサンプルサイズでの安定性や計算効率などの付加的な利点を提供する。
論文 参考訳(メタデータ) (2024-12-02T13:49:14Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Distributional Drift Detection in Medical Imaging with Sketching and Fine-Tuned Transformer [2.7552551107566137]
本稿では,CT-Scan医療画像における分布のドリフトを検出するための,高精度かつ高感度なアプローチを提案する。
我々は,リアルタイム異常検出のための堅牢なベースラインライブラリモデルを開発し,画像の効率的な比較を可能にした。
マンモグラフィーをケーススタディとして,訓練済みのビジョントランスモデルを微調整し,関連する特徴を抽出した。
論文 参考訳(メタデータ) (2024-08-15T23:46:37Z) - Opinion-Unaware Blind Image Quality Assessment using Multi-Scale Deep Feature Statistics [54.08757792080732]
我々は,事前学習された視覚モデルからの深い特徴を統計的解析モデルと統合して,意見認識のないBIQA(OU-BIQA)を実現することを提案する。
提案モデルは,最先端のBIQAモデルと比較して,人間の視覚的知覚との整合性に優れる。
論文 参考訳(メタデータ) (2024-05-29T06:09:34Z) - Image Statistics Predict the Sensitivity of Perceptual Quality Metrics [44.077177515227554]
画像の確率から、このリンクが数学的にどのように表現されるかは定かではない。
本稿では,自然画像の生成モデルを用いて画像の確率を評価する。
我々は,現在最先端の主観的画像品質指標の感度を予測するために,確率関連因子をどのように組み合わせることができるか分析する。
論文 参考訳(メタデータ) (2023-03-17T10:38:27Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。