論文の概要: TagGAN: A Generative Model for Data Tagging
- arxiv url: http://arxiv.org/abs/2502.17836v1
- Date: Tue, 25 Feb 2025 04:29:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:18:53.668816
- Title: TagGAN: A Generative Model for Data Tagging
- Title(参考訳): TagGAN: データタグ生成モデル
- Authors: Muhammad Nawaz, Basma Nasir, Tehseen Zia, Zawar Hussain, Catarina Moreira,
- Abstract要約: 本稿では,新しいGAN(Generative Adversarial Networks)ベースのフレームワークTagGANを提案する。
TagGANは、純粋に画像レベルのラベル付きデータから弱制御されたきめ細かい病気マップを生成するために調整されている。
本手法は, 画素レベルのアノテーションを必要とせず, 毎週, 病原体を可視化する, 詳細な病原体マップを作成することを目的としている。
- 参考スコア(独自算出の注目度): 1.820857020024539
- License:
- Abstract: Precise identification and localization of disease-specific features at the pixel-level are particularly important for early diagnosis, disease progression monitoring, and effective treatment in medical image analysis. However, conventional diagnostic AI systems lack decision transparency and cannot operate well in environments where there is a lack of pixel-level annotations. In this study, we propose a novel Generative Adversarial Networks (GANs)-based framework, TagGAN, which is tailored for weakly-supervised fine-grained disease map generation from purely image-level labeled data. TagGAN generates a pixel-level disease map during domain translation from an abnormal image to a normal representation. Later, this map is subtracted from the input abnormal image to convert it into its normal counterpart while preserving all the critical anatomical details. Our method is first to generate fine-grained disease maps to visualize disease lesions in a weekly supervised setting without requiring pixel-level annotations. This development enhances the interpretability of diagnostic AI by providing precise visualizations of disease-specific regions. It also introduces automated binary mask generation to assist radiologists. Empirical evaluations carried out on the benchmark datasets, CheXpert, TBX11K, and COVID-19, demonstrate the capability of TagGAN to outperform current top models in accurately identifying disease-specific pixels. This outcome highlights the capability of the proposed model to tag medical images, significantly reducing the workload for radiologists by eliminating the need for binary masks during training.
- Abstract(参考訳): ピクセルレベルでの疾患特異的特徴の正確な同定と局所化は、早期診断、疾患進行モニタリング、および医用画像解析における効果的な治療に特に重要である。
しかし、従来の診断AIシステムは決定の透明性が欠如しており、ピクセルレベルのアノテーションが欠如している環境ではうまく動作できない。
本研究では, 画像レベルのラベル付きデータから, 微粒化を弱く制御した病気マップ生成に適した, GAN(Generative Adversarial Networks)ベースのフレームワークTagGANを提案する。
TagGANは異常画像から正常表現へのドメイン翻訳中にピクセルレベルの病気マップを生成する。
その後、この地図は入力された異常画像から抽出され、重要な解剖学的詳細をすべて保存しながら正常な画像に変換する。
本手法は, 画素レベルのアノテーションを必要とせず, 毎週, 病原体を可視化する, 詳細な病原体マップを作成することを目的としている。
この開発は、疾患特異的領域の正確な視覚化を提供することで、診断AIの解釈可能性を高める。
また、放射線学者を支援するための自動二値マスク生成も導入している。
ベンチマークデータセットであるCheXpert、TBX11K、COVID-19で実施された経験的評価は、TagGANが現在のトップモデルより優れていることを示し、疾患固有のピクセルを正確に識別する。
この結果から,医用画像にタグ付けできるモデルの有効性が強調され,放射線科医の作業負荷が大幅に低減された。
関連論文リスト
- RadGazeGen: Radiomics and Gaze-guided Medical Image Generation using Diffusion Models [11.865553250973589]
RadGazeGenは、専門家の視線パターンと放射能特徴マップをテキストから画像への拡散モデルのコントロールとして統合するためのフレームワークである。
論文 参考訳(メタデータ) (2024-10-01T01:10:07Z) - Spatial-aware Attention Generative Adversarial Network for Semi-supervised Anomaly Detection in Medical Image [63.59114880750643]
本稿では,一級半教師付き健康画像生成のための空間意識生成ネットワーク(SAGAN)について紹介する。
SAGANは、正常な画像の復元と擬似異常画像の復元によって導かれる、ラベルのないデータに対応する高品質な健康画像を生成する。
3つの医学データセットに対する大規模な実験は、提案されたSAGANが最先端の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2024-05-21T15:41:34Z) - Anatomy-Guided Weakly-Supervised Abnormality Localization in Chest
X-rays [17.15666977702355]
本稿では,弱いアノテーション問題に対処するため,解剖誘導胸部X線ネットワーク(AGXNet)を提案する。
本フレームワークは2つのネットワークのカスケードから構成される。1つは解剖学的異常を同定し,もう1つは病理学的観察を行う。
MIMIC-CXRデータセットを用いて,AGXNetの疾患および解剖学的異常局在に対する有効性を示した。
論文 参考訳(メタデータ) (2022-06-25T18:33:27Z) - AlignTransformer: Hierarchical Alignment of Visual Regions and Disease
Tags for Medical Report Generation [50.21065317817769]
本稿では,Align Hierarchical Attention (AHA)とMulti-Grained Transformer (MGT)モジュールを含むAlign Transformerフレームワークを提案する。
パブリックなIU-XrayとMIMIC-CXRデータセットの実験は、AlignTransformerが2つのデータセットの最先端メソッドと競合する結果が得られることを示している。
論文 参考訳(メタデータ) (2022-03-18T13:43:53Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Weakly Supervised Thoracic Disease Localization via Disease Masks [29.065791290544983]
画像レベルのアノテーションのみを使用する弱監督ローカリゼーション手法が提案されている。
本稿では,主に疾患の発生領域を記述した病マスクを用いた空間的注意法を提案する。
提案手法は,最先端手法と比較して位置決め性能に優れることを示す。
論文 参考訳(メタデータ) (2021-01-25T06:52:57Z) - Image-based Plant Disease Diagnosis with Unsupervised Anomaly Detection
Based on Reconstructability of Colors [0.0]
画像に基づく植物病診断のための教師なし異常検出手法を提案する。
提案手法は,pix2pixと呼ばれる条件付き対向ネットワークを利用した植物病検出のための新しい画像ベースフレームワークを含む。
PlantVillageデータセットを用いた実験では,既存の異常検出装置と比較して提案手法の優位性を示した。
論文 参考訳(メタデータ) (2020-11-29T07:44:05Z) - Collaborative Unsupervised Domain Adaptation for Medical Image Diagnosis [102.40869566439514]
我々は、Unsupervised Domain Adaptation (UDA)を通じて、対象タスクにおける学習を支援するために、関連ドメインからの豊富なラベル付きデータを活用しようとしている。
クリーンなラベル付きデータやサンプルを仮定するほとんどのUDAメソッドが等しく転送可能であるのとは異なり、協調的教師なしドメイン適応アルゴリズムを革新的に提案する。
提案手法の一般化性能を理論的に解析し,医用画像と一般画像の両方で実験的に評価する。
論文 参考訳(メタデータ) (2020-07-05T11:49:17Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。