論文の概要: State-of-the-art segmentation network fooled to segment a heart symbol
in chest X-Ray images
- arxiv url: http://arxiv.org/abs/2104.00139v1
- Date: Wed, 31 Mar 2021 22:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-03 07:59:43.966146
- Title: State-of-the-art segmentation network fooled to segment a heart symbol
in chest X-Ray images
- Title(参考訳): 胸部X線画像における心臓シンボルの分割を騙した最先端セグメンテーションネットワーク
- Authors: Gerda Bortsova, Florian Dubost, Laurens Hogeweg, Ioannis Katramados,
Marleen de Bruijne
- Abstract要約: アドリアックは、入力データを悪意を持って変更し、自動決定システムの予測を誤解させる。
胸部X線による解剖学的構造の変化に対する逆行性攻撃の効果について検討した。
- 参考スコア(独自算出の注目度): 5.808118248166566
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks consist in maliciously changing the input data to mislead
the predictions of automated decision systems and are potentially a serious
threat for automated medical image analysis. Previous studies have shown that
it is possible to adversarially manipulate automated segmentations produced by
neural networks in a targeted manner in the white-box attack setting. In this
article, we studied the effectiveness of adversarial attacks in targeted
modification of segmentations of anatomical structures in chest X-rays.
Firstly, we experimented with using anatomically implausible shapes as targets
for adversarial manipulation. We showed that, by adding almost imperceptible
noise to the image, we can reliably force state-of-the-art neural networks to
segment the heart as a heart symbol instead of its real anatomical shape.
Moreover, such heart-shaping attack did not appear to require higher
adversarial noise level than an untargeted attack based the same attack method.
Secondly, we attempted to explore the limits of adversarial manipulation of
segmentations. For that, we assessed the effectiveness of shrinking and
enlarging segmentation contours for the three anatomical structures. We
observed that adversarially extending segmentations of structures into regions
with intensity and texture uncharacteristic for them presented a challenge to
our attacks, as well as, in some cases, changing segmentations in ways that
conflict with class adjacency priors learned by the target network.
Additionally, we evaluated performances of the untargeted attacks and targeted
heart attacks in the black-box attack scenario, using a surrogate network
trained on a different subset of images. In both cases, the attacks were
substantially less effective. We believe these findings bring novel insights
into the current capabilities and limits of adversarial attacks for semantic
segmentation.
- Abstract(参考訳): 敵対的攻撃は、入力データを悪質に変更して自動決定システムの予測を誤解させ、自動化された医療画像分析にとって深刻な脅威となる可能性がある。
従来の研究では、ホワイトボックス攻撃設定において、ニューラルネットワークによって生成された自動セグメンテーションを標的に操作できることが示されている。
本稿では,胸部X線による解剖学的構造の変化を標的とした対人攻撃の有効性を検討した。
まず, 解剖学的に目立たない形状を敵の操作対象として用いる実験を行った。
画像にほぼ知覚不能なノイズを加えることで、最先端のニューラルネットワークを、本物の解剖学的形状ではなく、心臓をハートシンボルとして確実に分割できることを示した。
さらに、このような心臓形成攻撃は、同じ攻撃法に基づく未標的攻撃よりも高い対向ノイズレベルを必要としないように思われた。
次に,セグメンテーションの対角的操作の限界について検討した。
そこで我々は,3つの解剖学的構造に対するセグメンテーション輪郭の縮小と拡大の効果を評価した。
対象のネットワークで学習されるクラス隣接性と相反する方法でセグメンテーションを変更する場合もありますが、逆行的に構造物のセグメンテーションを強度やテクスチャに欠ける領域に拡張することは、私たちの攻撃に対する課題と言えます。
さらに,画像の異なるサブセットでトレーニングした代理ネットワークを用いて,ブラックボックス攻撃シナリオにおける標的外攻撃と標的心臓発作のパフォーマンスを評価した。
いずれの場合も、攻撃効果は極めて低かった。
これらの発見は、セマンティックセグメンテーションに対する敵意攻撃の現在の能力と限界に新しい洞察をもたらすと信じています。
関連論文リスト
- Detecting Adversarial Attacks in Semantic Segmentation via Uncertainty Estimation: A Deep Analysis [12.133306321357999]
セグメンテーションのためのニューラルネットワークに対する敵攻撃を検出する不確実性に基づく手法を提案する。
我々は,不確実性に基づく敵攻撃の検出と様々な最先端ニューラルネットワークの詳細な解析を行う。
提案手法の有効性を示す数値実験を行った。
論文 参考訳(メタデータ) (2024-08-19T14:13:30Z) - Hide in Thicket: Generating Imperceptible and Rational Adversarial
Perturbations on 3D Point Clouds [62.94859179323329]
3Dポイントクラウド分類のための点操作に基づくアドリアック手法により、3Dモデルの脆弱性を明らかにした。
そこで本研究では,2段階の攻撃領域探索を行うHT-ADV法を提案する。
我々は,良性再サンプリングと良性剛性変換を用いることで,不受容性への犠牲がほとんどなく,身体的敵意の強さをさらに高めることができることを示唆する。
論文 参考訳(メタデータ) (2024-03-08T12:08:06Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - A Hierarchical Feature Constraint to Camouflage Medical Adversarial
Attacks [31.650769109900477]
特徴空間における医療敵対的攻撃の本質的特性について検討する。
既存の攻撃に対するアドオンとして,新しい階層的特徴制約(hfc)を提案する。
提案手法を2つの医療画像データセットで評価する。
論文 参考訳(メタデータ) (2020-12-17T11:00:02Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。