論文の概要: Adversarial Attacks and Defences for Skin Cancer Classification
- arxiv url: http://arxiv.org/abs/2212.06822v1
- Date: Tue, 13 Dec 2022 18:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 14:01:51.310757
- Title: Adversarial Attacks and Defences for Skin Cancer Classification
- Title(参考訳): 皮膚癌分類における敵対的攻撃と防御
- Authors: Vinay Jogani, Joy Purohit, Ishaan Shivhare, Samina Attari and Shraddha
Surtkar
- Abstract要約: このようなシステムの利用の増加は、医療業界で見ることができる。
このようなシステムの脆弱性を理解することがますます重要になっている。
本稿では,一般的な対人攻撃手法について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There has been a concurrent significant improvement in the medical images
used to facilitate diagnosis and the performance of machine learning techniques
to perform tasks such as classification, detection, and segmentation in recent
years. As a result, a rapid increase in the usage of such systems can be
observed in the healthcare industry, for instance in the form of medical image
classification systems, where these models have achieved diagnostic parity with
human physicians. One such application where this can be observed is in
computer vision tasks such as the classification of skin lesions in
dermatoscopic images. However, as stakeholders in the healthcare industry, such
as insurance companies, continue to invest extensively in machine learning
infrastructure, it becomes increasingly important to understand the
vulnerabilities in such systems. Due to the highly critical nature of the tasks
being carried out by these machine learning models, it is necessary to analyze
techniques that could be used to take advantage of these vulnerabilities and
methods to defend against them. This paper explores common adversarial attack
techniques. The Fast Sign Gradient Method and Projected Descent Gradient are
used against a Convolutional Neural Network trained to classify dermatoscopic
images of skin lesions. Following that, it also discusses one of the most
popular adversarial defense techniques, adversarial training. The performance
of the model that has been trained on adversarial examples is then tested
against the previously mentioned attacks, and recommendations to improve neural
networks robustness are thus provided based on the results of the experiment.
- Abstract(参考訳): 近年、分類、検出、分割といったタスクを実行するための機械学習技術の診断と性能向上のために用いられる医用画像は、同時に大幅に改善されている。
その結果、医療業界では、例えば、これらのモデルが人間の医師と同等の診断を達成している医療画像分類システムのような形で、このようなシステムの使用が急速に増加することが観察できる。
これを観察できる応用の1つは、皮膚内視鏡画像における皮膚病変の分類のようなコンピュータビジョンタスクである。
しかし、保険会社などのヘルスケア業界のステークホルダーが機械学習インフラに多大な投資を続けるにつれ、このようなシステムの脆弱性を理解することがますます重要になっている。
これらの機械学習モデルによって実行されるタスクの極めて重要な性質のため、これらの脆弱性とそれに対する防御方法を活用するために使用できる技術を分析する必要がある。
本稿では,共通の攻撃手法について検討する。
皮膚病変の皮膚鏡像を分類するために訓練された畳み込みニューラルネットワークに対して、高速標識勾配法と投射降下勾配を用いる。
続いて、最も人気のある敵の防御技術である敵の訓練についても論じている。
次に、敵の例に基づいて訓練されたモデルの性能を上記の攻撃に対して検証し、実験結果に基づいてニューラルネットワークの堅牢性を改善するための勧告を提供する。
関連論文リスト
- Securing the Diagnosis of Medical Imaging: An In-depth Analysis of AI-Resistant Attacks [0.0]
機械学習分類器のインプットを意図的に生成することで、攻撃者が誤分類を引き起こすという一般的な知識である。
近年の議論は、医療画像解析技術に対する敵対的攻撃が可能であることを示唆している。
医療用DNNタスクが敵の攻撃に対してどれほど強いかを評価することが不可欠である。
論文 参考訳(メタデータ) (2024-08-01T07:37:27Z) - Adversarial-Robust Transfer Learning for Medical Imaging via Domain
Assimilation [17.46080957271494]
医用画像が公開されていないため、現代のアルゴリズムは、大量の自然画像に基づいて事前訓練されたモデルに依存するようになった。
自然画像と医療画像の間に重要なエムドメインの相違があり、AIモデルは敵の攻撃に対するエムの脆弱性を高める。
本稿では,テクスチャと色適応を伝達学習に導入する Em ドメイン同化手法を提案する。
論文 参考訳(メタデータ) (2024-02-25T06:39:15Z) - Survey on Adversarial Attack and Defense for Medical Image Analysis: Methods and Challenges [64.63744409431001]
医療画像解析における敵攻撃・防衛の進歩に関する総合的な調査を報告する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Dissecting Self-Supervised Learning Methods for Surgical Computer Vision [51.370873913181605]
一般のコンピュータビジョンコミュニティでは,自己監視学習(SSL)手法が普及し始めている。
医学や手術など、より複雑で影響力のある領域におけるSSLメソッドの有効性は、限定的かつ未調査のままである。
外科的文脈理解,位相認識,ツール存在検出の2つの基本的なタスクに対して,これらの手法の性能をColec80データセット上で広範囲に解析する。
論文 参考訳(メタデータ) (2022-07-01T14:17:11Z) - Incremental Cross-Domain Adaptation for Robust Retinopathy Screening via
Bayesian Deep Learning [7.535751594024775]
網膜症は、タイムリーに治療されないと、深刻な視覚障害や失明を引き起こす網膜疾患のグループである。
本稿では, 深い分類モデルを用いて, 異常網膜病理を段階的に学習することのできる, 漸進的なクロスドメイン適応手法を提案する。
提案したフレームワークは、6つの公開データセットで評価され、全体的な精度とF1スコアをそれぞれ0.9826と0.9846で達成することで、最先端の競合他社を上回っている。
論文 参考訳(メタデータ) (2021-10-18T13:45:21Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Recent advances and clinical applications of deep learning in medical
image analysis [7.132678647070632]
我々は最近200以上の論文をレビュー・要約し、様々な医用画像解析タスクにおける深層学習手法の適用の概要を概観した。
特に,医用画像における最先端の非教師あり半教師あり深層学習の進歩と貢献を強調した。
論文 参考訳(メタデータ) (2021-05-27T18:05:12Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。