論文の概要: Interactive Analysis of CNN Robustness
- arxiv url: http://arxiv.org/abs/2110.07667v1
- Date: Thu, 14 Oct 2021 18:52:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:21:13.128615
- Title: Interactive Analysis of CNN Robustness
- Title(参考訳): CNNロバストネスのインタラクティブ解析
- Authors: Stefan Sietzen, Mathias Lechner, Judy Borowski, Ramin Hasani, Manuela
Waldner
- Abstract要約: Perturberはウェブベースのアプリケーションで、3D入力シーンがインタラクティブに摂動した場合、CNNのアクティベーションと予測がどのように進化するかをユーザが調査することができる。
パーターバーは、カメラコントロール、照明とシェーディング効果、背景の修正、物体の変形、敵の攻撃など、様々なシーン修正を提供している。
機械学習の専門家によるケーススタディによると、Perturberはモデルの脆弱性に関する仮説を素早く生成し、モデルの振る舞いを質的に比較するのに役立つ。
- 参考スコア(独自算出の注目度): 11.136837582678869
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While convolutional neural networks (CNNs) have found wide adoption as
state-of-the-art models for image-related tasks, their predictions are often
highly sensitive to small input perturbations, which the human vision is robust
against. This paper presents Perturber, a web-based application that allows
users to instantaneously explore how CNN activations and predictions evolve
when a 3D input scene is interactively perturbed. Perturber offers a large
variety of scene modifications, such as camera controls, lighting and shading
effects, background modifications, object morphing, as well as adversarial
attacks, to facilitate the discovery of potential vulnerabilities. Fine-tuned
model versions can be directly compared for qualitative evaluation of their
robustness. Case studies with machine learning experts have shown that
Perturber helps users to quickly generate hypotheses about model
vulnerabilities and to qualitatively compare model behavior. Using quantitative
analyses, we could replicate users' insights with other CNN architectures and
input images, yielding new insights about the vulnerability of adversarially
trained models.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は画像関連タスクの最先端モデルとして広く採用されているが、その予測は人間の視覚が頑健な小さな入力摂動に非常に敏感であることが多い。
本稿では,CNNのアクティベーションと予測がインタラクティブな3D入力シーンでどのように進化するかをユーザが瞬時に知ることができるWebベースのアプリケーションPerturberを提案する。
パーターバーは、潜在的な脆弱性の発見を容易にするために、カメラコントロール、照明とシェーディング効果、背景修正、オブジェクトの変形、および敵の攻撃など、様々なシーン修正を提供している。
微調整されたモデルバージョンは、その堅牢性の質的な評価のために直接比較することができる。
機械学習の専門家によるケーススタディによると、perturberはモデルの脆弱性に関する仮説を素早く生成し、モデルの振る舞いを質的に比較するのに役立つ。
定量的分析により、他のCNNアーキテクチャや入力画像とユーザの洞察を再現し、敵対的に訓練されたモデルの脆弱性に関する新たな洞察を得ることができる。
関連論文リスト
- Fooling Neural Networks for Motion Forecasting via Adversarial Attacks [0.0]
動き予測タスクは、小さな摂動と単純な3次元変換の影響を受けやすいことを示す。
従来のCNNモデルと同様に、動き予測タスクは小さな摂動や単純な3次元変換の影響を受けやすいと結論付けている。
論文 参考訳(メタデータ) (2024-03-07T23:44:10Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Interpretable Computer Vision Models through Adversarial Training:
Unveiling the Robustness-Interpretability Connection [0.0]
解釈可能性は、モデルを現実世界にデプロイする際には、堅牢性と同じくらい不可欠です。
標準モデルは、ロバストと比較して敵の攻撃に対してより感受性が高く、その学習された表現は人間にはあまり意味がない。
論文 参考訳(メタデータ) (2023-07-04T13:51:55Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - Physical world assistive signals for deep neural network classifiers --
neither defense nor attack [23.138996515998347]
攻撃中であろうとなかろうと、モデルの信頼度スコアを改善するために最適化されたアシスト信号の概念を導入する。
本手法により生成された補助信号が深層モデルの精度と信頼性を高めることを実験的に評価した。
我々は、現実世界の物体の検知可能性に寄与する可能性のあるパターンを再考したり、回避するために、これらの洞察を利用する方法について議論する。
論文 参考訳(メタデータ) (2021-05-03T04:02:48Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。