論文の概要: On the notion of Hallucinations from the lens of Bias and Validity in
Synthetic CXR Images
- arxiv url: http://arxiv.org/abs/2312.06979v1
- Date: Tue, 12 Dec 2023 04:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 17:24:56.970438
- Title: On the notion of Hallucinations from the lens of Bias and Validity in
Synthetic CXR Images
- Title(参考訳): 合成cxr画像におけるバイアスレンズからの幻覚の概念と妥当性について
- Authors: Gauri Bhardwaj, Yuvaraj Govindarajulu, Sundaraparipurnan Narayanan,
Pavan Kulkarni, Manojkumar Parmar
- Abstract要約: 拡散モデルのような生成モデルは、データ品質と臨床情報の格差を軽減することを目的としている。
スタンフォード大学の研究者たちは、医療画像データ拡張のための微調整された安定拡散モデル(RoentGen)の有用性を探求した。
我々はRoentGenを利用してChest-XRay(CXR)画像を生成し、バイアス、妥当性、幻覚の評価を行った。
- 参考スコア(独自算出の注目度): 0.35998666903987897
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Medical imaging has revolutionized disease diagnosis, yet the potential is
hampered by limited access to diverse and privacy-conscious datasets.
Open-source medical datasets, while valuable, suffer from data quality and
clinical information disparities. Generative models, such as diffusion models,
aim to mitigate these challenges. At Stanford, researchers explored the utility
of a fine-tuned Stable Diffusion model (RoentGen) for medical imaging data
augmentation. Our work examines specific considerations to expand the Stanford
research question, Could Stable Diffusion Solve a Gap in Medical Imaging Data?
from the lens of bias and validity of the generated outcomes. We leveraged
RoentGen to produce synthetic Chest-XRay (CXR) images and conducted assessments
on bias, validity, and hallucinations. Diagnostic accuracy was evaluated by a
disease classifier, while a COVID classifier uncovered latent hallucinations.
The bias analysis unveiled disparities in classification performance among
various subgroups, with a pronounced impact on the Female Hispanic subgroup.
Furthermore, incorporating race and gender into input prompts exacerbated
fairness issues in the generated images. The quality of synthetic images
exhibited variability, particularly in certain disease classes, where there was
more significant uncertainty compared to the original images. Additionally, we
observed latent hallucinations, with approximately 42% of the images
incorrectly indicating COVID, hinting at the presence of hallucinatory
elements. These identifications provide new research directions towards
interpretability of synthetic CXR images, for further understanding of
associated risks and patient safety in medical applications.
- Abstract(参考訳): 医療画像は病気の診断に革命をもたらしたが、多様なプライバシーを意識したデータセットへのアクセスが限られている。
オープンソースの医療データセットは価値はあるものの、データ品質と臨床情報格差に悩まされている。
拡散モデルのような生成モデルはこれらの課題を軽減することを目的としている。
スタンフォード大学の研究者たちは、医療画像データ拡張のための微調整された安定拡散モデル(RoentGen)の有用性を探求した。
本研究は,スタンフォード大学の研究課題を拡大するための具体的考察を考察し,安定拡散は医用画像データのギャップを解消できるのか?
バイアスのレンズと 生成された結果の妥当性から
我々はRoentGenを利用してChest-XRay(CXR)画像を生成し、バイアス、妥当性、幻覚の評価を行った。
診断精度は病状分類器で評価し, 病状分類器では潜伏性幻覚が確認された。
バイアス分析の結果,雌ヒスパニック亜群に明らかな影響を及ぼした様々な亜群間での分類性能の差が認められた。
さらに、人種や性別を入力に組み込むことで、生成された画像の公平性の問題が悪化する。
合成画像のクオリティは変動性を示し,特に特定の病クラスにおいて,原画像と比較して不確かさが顕著であった。
さらに, 潜伏幻覚を観察し, 画像の約42%が誤って新型コロナウイルスを示唆し, 幻覚要素の存在を示唆した。
これらの同定はCXR画像の解釈可能性に関する新たな研究の方向性を提供し、医療応用におけるリスクと患者の安全性のさらなる理解を提供する。
関連論文リスト
- FairSkin: Fair Diffusion for Skin Disease Image Generation [54.29840149709033]
拡散モデル (DM) は, 合成医用画像の生成において主要な手法となっているが, 臨界二倍偏差に悩まされている。
このようなバイアスを3段階のリサンプリング機構によって緩和する新しいDMフレームワークであるFairSkinを提案する。
本手法は, 画像の多様性と品質を著しく向上させ, 臨床環境における皮膚疾患の検出精度の向上に寄与する。
論文 参考訳(メタデータ) (2024-10-29T21:37:03Z) - Diffusion Facial Forgery Detection [56.69763252655695]
本稿では,顔に焦点をあてた拡散生成画像を対象とした包括的データセットであるDiFFを紹介する。
人体実験といくつかの代表的な偽造検出手法を用いて,DiFFデータセットの広範な実験を行った。
その結果、人間の観察者と自動検出者の2値検出精度は30%以下であることが判明した。
論文 参考訳(メタデータ) (2024-01-29T03:20:19Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Counterfactual Image Synthesis for Discovery of Personalized Predictive
Image Markers [0.293168019422713]
そこで本研究では,深部条件生成モデルを用いて,主観的疾患の進展に関連があるベースライン画像の局所像特徴を摂動させることが可能であることを示す。
本モデルでは, 臨床像を反映した画像特徴の変化により, 集団レベルでのMRI像の現況を予測し, 治療効果を検証した。
論文 参考訳(メタデータ) (2022-08-03T18:58:45Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Overcoming Barriers to Data Sharing with Medical Image Generation: A
Comprehensive Evaluation [17.983449515155414]
我々は、GAN(Generative Adversarial Networks)を用いて、合成患者データからなる医用画像データセットを作成する。
合成画像は、理想的には、ソースデータセットと類似した統計特性を持つが、機密性の高い個人情報は含まない。
合成画像の品質は、合成データセットと実データセットの両方で訓練された予測モデルの性能差によって測定する。
論文 参考訳(メタデータ) (2020-11-29T15:41:46Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。