論文の概要: Hybrid Vision Transformer_GAN Attribute Neutralizer for Mitigating Bias in Chest X_Ray Diagnosis
- arxiv url: http://arxiv.org/abs/2601.15490v1
- Date: Wed, 21 Jan 2026 21:43:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.427367
- Title: Hybrid Vision Transformer_GAN Attribute Neutralizer for Mitigating Bias in Chest X_Ray Diagnosis
- Title(参考訳): 胸部X線診断におけるハイブリットビジョントランスフォーマー_GANアトリビュートニュートラル化剤
- Authors: Jobeal Solomon, Ali Mohammed Mansoor Alsahag, Seyed Sahand Mohammadi Ziabari,
- Abstract要約: データ効率のよいイメージトランスフォーマー・スモール(DeiT-S)をChestX-ray14データセットでトレーニングした。
適度な編集レベル(alpha = 0.5)では、視覚変換器(ViT)は、曲線(AUC)の下の患者性認知領域を約0.80に減らし、元のフレームワークの畳み込みU-Netエンコーダより約10パーセント低い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bias in chest X-ray classifiers frequently stems from sex- and age-related shortcuts, leading to systematic underdiagnosis of minority subgroups. Previous pixel-space attribute neutralizers, which rely on convolutional encoders, lessen but do not fully remove this attribute leakage at clinically usable edit strengths. This study evaluates whether substituting the U-Net convolutional encoder with a Vision Transformer backbone in the Attribute-Neutral Framework can reduce demographic attribute leakage while preserving diagnostic accuracy. A data-efficient Image Transformer Small (DeiT-S) neutralizer was trained on the ChestX-ray14 dataset. Its edited images, generated across eleven edit-intensity levels, were evaluated with an independent AI judge for attribute leakage and with a convolutional neural network (ConvNet) for disease prediction. At a moderate edit level (alpha = 0.5), the Vision Transformer (ViT) neutralizer reduces patient sex-recognition area under the curve (AUC) to approximately 0.80, about 10 percentage points below the original framework's convolutional U-Net encoder, despite being trained for only half as many epochs. Meanwhile, macro receiver operating characteristic area under the curve (ROC AUC) across 15 findings stays within five percentage points of the unedited baseline, and the worst-case subgroup AUC remains near 0.70. These results indicate that global self-attention vision models can further suppress attribute leakage without sacrificing clinical utility, suggesting a practical route toward fairer chest X-ray AI.
- Abstract(参考訳): 胸部X線分類器のバイアスは、しばしば性別や年齢に関連するショートカットに起因し、マイノリティサブグループの体系的な下垂体診断に繋がる。
畳み込みエンコーダに依存する以前の画素空間属性中和器は、この属性リークを臨床的に有用な編集強度で完全に除去しない。
本研究では,Attribute-Neutral Frameworkにおいて,U-Net畳み込みエンコーダをVision Transformerのバックボーンに置き換えることで,診断精度を維持しつつ,人口特性の漏洩を低減することができるかを評価する。
ChestX-ray14データセット上で,データ効率のよいイメージトランスフォーマー・スモール(DeiT-S)中立化器をトレーニングした。
編集された画像は、11の編集強度レベルにわたって生成され、属性リークの独立したAI判断器と、疾患予測の畳み込みニューラルネットワーク(ConvNet)で評価された。
適度な編集レベル(alpha = 0.5)では、ViT(Vision Transformer)中和器は、曲線(AUC)の下の患者性認知領域を約0.80に減らし、元のフレームワークの畳み込みU-Netエンコーダの約10ポイント以下に抑える。
一方、曲線(ROC AUC)の下でのマクロ受信器の動作特性は、未編集ベースラインの5ポイント以内に留まり、最悪のサブグループであるAUCは0.70に近づいたままである。
これらの結果から,グローバルな自己注意型視覚モデルにより,臨床的有用性を犠牲にすることなく属性の漏洩を抑えることができ,より公平な胸部X線AIへの実践的な道筋が示唆された。
関連論文リスト
- Hide-and-Seek Attribution: Weakly Supervised Segmentation of Vertebral Metastases in CT [68.09387763135236]
脊椎レベルの健康・悪性のラベルにのみ、病変マスクを伴わずに訓練を施した弱い指導方法を提案する。
マスクの監視がないにも関わらず,強い爆発・解析性能を達成する。
論文 参考訳(メタデータ) (2025-12-07T14:03:28Z) - I Detect What I Don't Know: Incremental Anomaly Learning with Stochastic Weight Averaging-Gaussian for Oracle-Free Medical Imaging [2.384534878752428]
異常ラベルを使わずに,信頼度の高い正規サンプル群を漸進的に拡張する,教師なしのオラクルフリーフレームワークを導入する。
凍結した事前訓練された視覚バックボーンは、小さな畳み込みアダプタで拡張され、無視できる計算オーバーヘッドを伴う高速なドメイン適応が保証される。
COVID-CXRでは、ROC-AUCは0.9489から0.9982に改善され、肺炎CXRでは0.6834から0.8968に上昇し、脳MRIではND-5では0.6041から0.7269に上昇する。
論文 参考訳(メタデータ) (2025-11-05T23:28:14Z) - Beyond the First Read: AI-Assisted Perceptual Error Detection in Chest Radiography Accounting for Interobserver Variability [3.32947201358052]
本稿では,ポスト解釈コンパニオンシステムであるRADARを紹介する。
RADARは放射線学のアノテーションとCXRの画像を取り込み、地域レベルの分析を行う。
RADARのリコールは0.78、精度は0.44、F1のスコアは0.56であった。
論文 参考訳(メタデータ) (2025-06-16T02:36:38Z) - Cross-Shaped Windows Transformer with Self-supervised Pretraining for Clinically Significant Prostate Cancer Detection in Bi-parametric MRI [6.930082824262643]
前立腺癌 (bpMRI) における臨床的に重要な前立腺癌 (csPCa) を検出するために, CSwin 変圧器 UNet モデル (CSwin 変圧器 UNet モデル) を導入した。
1500人の患者を対象とした大規模前立腺bpMRIデータセットを用いて、まずマルチタスク自己教師型学習を用いてCSwin変換器を事前訓練し、データ効率とネットワークの一般化性を向上させる。
5倍のクロスバリデーションは、自己教師型CSwin UNetが0.888 AUCと0.545 Average Precision(AP)を達成し、4つの同等モデル(Swin U)を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2023-04-30T04:40:32Z) - DeDA: Deep Directed Accumulator [10.779418078441065]
慢性活動性多発性硬化症病変(リム+病変とも呼ばれる)は、定量的感受性マップ上の病変の端に高強度の縁を特徴付けることができる。
近年の研究では,これらの病変の同定性能は,データ量と高レベルの不均衡のため,未だに満足できないことが示されている。
本稿では,領域固有の帰納バイアス(プライアー)をニューラルネットワークに注入し,リム+病変の同定を行うための,単純かつ効果的な画像処理操作であるディープ指向(DeDA)を提案する。
論文 参考訳(メタデータ) (2023-03-15T08:12:28Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Evading Deepfake-Image Detectors with White- and Black-Box Attacks [75.13740810603686]
一般的な法医学的アプローチは、ニューラルネットワークを訓練して、実際の合成内容と区別することを示します。
我々は,既存の画像生成装置の約0.95のLOC曲線(AUC)以下の領域を達成できる最先端の分類器に関する5つの攻撃事例研究を開発した。
また、ターゲット分類器にアクセスできないブラックボックス攻撃により、AUCを0.22に削減する。
論文 参考訳(メタデータ) (2020-04-01T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。