論文の概要: Adversarial Exposure Attack on Diabetic Retinopathy Imagery Grading
- arxiv url: http://arxiv.org/abs/2009.09231v2
- Date: Thu, 17 Oct 2024 13:30:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-21 02:45:21.233741
- Title: Adversarial Exposure Attack on Diabetic Retinopathy Imagery Grading
- Title(参考訳): 糖尿病網膜症画像における対側曝露攻撃
- Authors: Yupeng Cheng, Qing Guo, Felix Juefei-Xu, Huazhu Fu, Shang-Wei Lin, Weisi Lin,
- Abstract要約: 糖尿病網膜症(DR)は、世界中の視覚障害の主要な原因である。
診断を助けるために、多くの最先端の作業が強力なディープニューラルネットワーク(DNN)を構築し、網膜基底画像(RFI)を介してDRを自動的にグレードする。
RFIは一般的に、不正グレードにつながる可能性のあるカメラ露出の問題によって影響を受ける。
本稿では,敵攻撃の観点からこの問題を考察する。
- 参考スコア(独自算出の注目度): 75.73437831338907
- License:
- Abstract: Diabetic Retinopathy (DR) is a leading cause of vision loss around the world. To help diagnose it, numerous cutting-edge works have built powerful deep neural networks (DNNs) to automatically grade DR via retinal fundus images (RFIs). However, RFIs are commonly affected by camera exposure issues that may lead to incorrect grades. The mis-graded results can potentially pose high risks to an aggravation of the condition. In this paper, we study this problem from the viewpoint of adversarial attacks. We identify and introduce a novel solution to an entirely new task, termed as adversarial exposure attack, which is able to produce natural exposure images and mislead the state-of-the-art DNNs. We validate our proposed method on a real-world public DR dataset with three DNNs, e.g., ResNet50, MobileNet, and EfficientNet, demonstrating that our method achieves high image quality and success rate in transferring the attacks. Our method reveals the potential threats to DNN-based automatic DR grading and would benefit the development of exposure-robust DR grading methods in the future.
- Abstract(参考訳): 糖尿病網膜症(DR)は、世界中の視覚障害の主要な原因である。
診断を助けるために、多くの最先端のワークが強力なディープニューラルネットワーク(DNN)を構築し、網膜基底画像(RFI)を介してDRを自動的にグレードする。
しかし、RFIは一般的にカメラの露出の問題の影響を受け、不正なグレードにつながる可能性がある。
失格の結果は、条件の悪化に高いリスクをもたらす可能性がある。
本稿では,敵攻撃の観点からこの問題を考察する。
我々は, 対人露光攻撃と呼ばれる全く新しいタスクに対して, 自然な露光画像を生成し, 最先端のDNNを誤解させることのできる新しい解を同定し, 導入する。
提案手法を,3つのDNN(ResNet50,MobileNet,EfficientNet)を用いた実世界のDRデータセット上で検証し,攻撃の転送において高い画質と成功率を達成することを示す。
提案手法は,DNNによる自動DRグレーティングの潜在的な脅威を明らかにし,将来は露光障害型DRグレーティング手法の開発に有効である。
関連論文リスト
- OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Adversarial alignment: Breaking the trade-off between the strength of an
attack and its relevance to human perception [10.883174135300418]
敵対的な攻撃は長年、深層学習の「アキレスのヒール」と見なされてきた。
本稿では、ImageNetにおけるDNNの敵攻撃に対する堅牢性がどのように発展し、精度が向上し続けているかを検討する。
論文 参考訳(メタデータ) (2023-06-05T20:26:17Z) - Improving Classification of Retinal Fundus Image Using Flow Dynamics
Optimized Deep Learning Methods [0.0]
糖尿病網膜症(英: Diabetic Retinopathy, DR)は、糖尿病において網膜に存在する血管網を損傷する障害である。
経験豊富な臨床医は、疾患の特定に使用される画像中の腫瘍を識別する必要があるため、カラー・ファンドス画像を用いてDR診断を行うのにしばらく時間がかかる可能性がある。
論文 参考訳(メタデータ) (2023-04-29T16:11:34Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - 3D Convolutional Neural Networks for Stalled Brain Capillary Detection [72.21315180830733]
脳毛細血管の血流停止などの脳血管障害は、アルツハイマー病の認知機能低下と病態形成と関連している。
本稿では,3次元畳み込みニューラルネットワークを用いた脳画像中の毛細血管の自動検出のための深層学習に基づくアプローチについて述べる。
本手法は,他の手法よりも優れ,0.85マシューズ相関係数,85%感度,99.3%特異性を達成した。
論文 参考訳(メタデータ) (2021-04-04T20:30:14Z) - An Interpretable Multiple-Instance Approach for the Detection of
referable Diabetic Retinopathy from Fundus Images [72.94446225783697]
基礎画像における参照糖尿病網膜症検出のための機械学習システムを提案する。
画像パッチから局所情報を抽出し,アテンション機構により効率的に組み合わせることで,高い分類精度を実現することができる。
我々は,現在入手可能な網膜画像データセットに対するアプローチを評価し,最先端の性能を示す。
論文 参考訳(メタデータ) (2021-03-02T13:14:15Z) - Adversarial Robustness Study of Convolutional Neural Network for Lumbar
Disk Shape Reconstruction from MR images [1.2809525640002362]
本研究では, 腰椎MR画像から腰椎椎間板形状を再構成するための代表的CNNのin-distriion (IND) とout-of-distriion (OOD) の対向性について検討した。
以上の結果から, IND対人訓練は, IND対人攻撃に対するCNNのロバスト性を向上し, より大きなトレーニングデータセットがIND対人攻撃のロバスト性を高める可能性が示唆された。
論文 参考訳(メタデータ) (2021-02-04T20:57:49Z) - Bias Field Poses a Threat to DNN-based X-Ray Recognition [21.317001512826476]
胸部X線画像には、不適切な医用画像取得プロセスによって引き起こされるバイアスフィールドが広く存在している。
本稿では,近年の敵攻撃をベースとしてこの問題を考察し,新たな攻撃法を提案する。
本手法は,DNNによるX線自動診断に対する潜在的な脅威を明らかにし,バイアスフィールド・ローバスト自動診断システムの開発に有効である。
論文 参考訳(メタデータ) (2020-09-19T14:58:02Z) - A Benchmark for Studying Diabetic Retinopathy: Segmentation, Grading,
and Transferability [76.64661091980531]
糖尿病患者は糖尿病網膜症(DR)を発症するリスクがある
コンピュータ支援型DR診断は、DRの早期検出と重度評価のための有望なツールである。
このデータセットは、ピクセルレベルのDR関連病変アノテーションを持つ1,842枚の画像と、6人の眼科医によって評価された画像レベルのラベルを持つ1,000枚の画像を有する。
論文 参考訳(メタデータ) (2020-08-22T07:48:04Z) - Adversarial Attacks on Convolutional Neural Networks in Facial
Recognition Domain [2.4704085162861693]
Deep Neural Network(DNN)分類器を実生活で脆弱にする敵攻撃は、自動運転車、マルウェアフィルター、生体認証システムにおいて深刻な脅威となる。
我々はFast Gradient Sign Methodを適用し、顔画像データセットに摂動を導入し、異なる分類器で出力をテストする。
我々は、最小の敵対的知識を前提に、さまざまなブラックボックス攻撃アルゴリズムを顔画像データセット上に構築する。
論文 参考訳(メタデータ) (2020-01-30T00:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。