論文の概要: CorrGAN: Input Transformation Technique Against Natural Corruptions
- arxiv url: http://arxiv.org/abs/2204.08623v1
- Date: Tue, 19 Apr 2022 02:56:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 23:26:41.008487
- Title: CorrGAN: Input Transformation Technique Against Natural Corruptions
- Title(参考訳): CorrGAN:自然破壊に対する入力変換技術
- Authors: Mirazul Haque, Christof J. Budnik, and Wei Yang
- Abstract要約: 本研究では,劣化した入力が提供される場合に良性入力を生成できるCorrGANアプローチを提案する。
本稿では,新たな中間出力に基づく損失関数を持つGAN(Generative Adversarial Network)を訓練する。
GANは、破損した入力をノイズ化し、良性入力を生成する。
- 参考スコア(独自算出の注目度): 4.479638789566316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Because of the increasing accuracy of Deep Neural Networks (DNNs) on
different tasks, a lot of real times systems are utilizing DNNs. These DNNs are
vulnerable to adversarial perturbations and corruptions. Specifically, natural
corruptions like fog, blur, contrast etc can affect the prediction of DNN in an
autonomous vehicle. In real time, these corruptions are needed to be detected
and also the corrupted inputs are needed to be de-noised to be predicted
correctly. In this work, we propose CorrGAN approach, which can generate benign
input when a corrupted input is provided. In this framework, we train
Generative Adversarial Network (GAN) with novel intermediate output-based loss
function. The GAN can denoise the corrupted input and generate benign input.
Through experimentation, we show that up to 75.2% of the corrupted
misclassified inputs can be classified correctly by DNN using CorrGAN.
- Abstract(参考訳): 異なるタスクにおけるディープニューラルネットワーク(DNN)の精度が向上しているため、多くのリアルタイムシステムがDNNを利用している。
これらのDNNは敵の摂動や腐敗に弱い。
特に、霧、ぼやけ、コントラストなどの自然腐敗は、自動運転車におけるdnnの予測に影響を与える可能性がある。
リアルタイムに、これらの腐敗を検知する必要があり、腐敗した入力を正しく予測するために消音する必要がある。
本研究では,劣化した入力が提供される場合に良性入力を生成できるCorrGANアプローチを提案する。
本稿では,新たな中間出力に基づく損失関数を持つGAN(Generative Adversarial Network)を訓練する。
GANは、破損した入力をノイズ化し、良性入力を生成する。
実験により,劣化した誤分類入力の75.2%がcorrganを用いてdnnによって正しく分類できることを示した。
関連論文リスト
- DARDA: Domain-Aware Real-Time Dynamic Neural Network Adaptation [8.339630468077713]
TTA(Test Time Adaptation)は、入力に影響を及ぼす破損やノイズの存在下でのディープニューラルネットワーク(DNN)の性能劣化を軽減するための実用的なソリューションとして登場した。
このような問題に対処するためにドメイン対応リアルタイム動的適応(DARDA)を提案する。
論文 参考訳(メタデータ) (2024-09-15T14:49:30Z) - Model Copyright Protection in Buyer-seller Environment [35.2914055333853]
入出力型ニューラルネットワーク(ISNN)を用いたディープニューラルネットワーク(DNN)の著作権保護手法を提案する。
トレーニング期間中、クリーンな画像に特定の摂動を加え、それらを合法的な入力としてマークし、他の入力は違法な入力として扱われる。
実験の結果,提案手法の有効性,有効性,安全性が示された。
論文 参考訳(メタデータ) (2023-12-05T07:15:10Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Verification-Aided Deep Ensemble Selection [4.290931412096984]
ディープニューラルネットワーク(DNN)は、様々な複雑なタスクを実現するための選択技術となっている。
正しく分類された入力に対する知覚できない摂動でさえ、DNNによる誤分類につながる可能性がある。
本稿では,同時エラーの少ないアンサンブル構成を同定するための方法論を考案する。
論文 参考訳(メタデータ) (2022-02-08T14:36:29Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Enhancing Graph Neural Network-based Fraud Detectors against Camouflaged
Fraudsters [78.53851936180348]
近年の実証研究,すなわち特徴カモフラージュと関係カモフラージュの2種類のカモフラージュを紹介した。
既存のGNNはこれらの2つのカモフラージュに対処していない。
カモフラージュ抵抗型GNN(CARE-GNN)と呼ばれる新しいモデルを提案し、カモフラージュに対する3つのユニークなモジュールを用いたGNN集約プロセスを強化する。
論文 参考訳(メタデータ) (2020-08-19T22:33:12Z) - CodNN -- Robust Neural Networks From Coded Classification [27.38642191854458]
ディープニューラルネットワーク(Deep Neural Networks、DNN)は、現在進行中の情報革命における革命的な力である。
DNNは、敵対的であろうとランダムであろうと、ノイズに非常に敏感である。
これは、DNNのハードウェア実装と、自律運転のような重要なアプリケーションへの展開において、根本的な課題となる。
提案手法により,DNNのデータ層あるいは内部層は誤り訂正符号で符号化され,ノイズ下での計算が成功することが保証される。
論文 参考訳(メタデータ) (2020-04-22T17:07:15Z) - GraN: An Efficient Gradient-Norm Based Detector for Adversarial and
Misclassified Examples [77.99182201815763]
ディープニューラルネットワーク(DNN)は、敵対的な例やその他のデータ摂動に対して脆弱である。
GraNは、どのDNNにも容易に適応できる時間およびパラメータ効率の手法である。
GraNは多くの問題セットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-20T10:09:27Z) - Bayesian x-vector: Bayesian Neural Network based x-vector System for
Speaker Verification [71.45033077934723]
我々はディープニューラルネットワーク(DNN)xベクトル話者検証システムにベイズニューラルネットワーク(BNN)を組み込む。
BNNによって提供される重みの不確実性モデリングにより、システムは評価データにより良い一般化を期待できる。
その結果、BNNの相対的なEERの2.66%と2.32%の減少により、短文と短文のドメイン評価が可能であることが判明した。
論文 参考訳(メタデータ) (2020-04-08T14:35:12Z) - A Low-cost Fault Corrector for Deep Neural Networks through Range
Restriction [1.8907108368038215]
安全クリティカルドメインのディープニューラルネットワーク(DNN)は、深刻な信頼性を懸念している。
本研究は,過渡的故障による故障を再計算せずに直接修正する低コストな故障修正器であるRangeを提案する。
論文 参考訳(メタデータ) (2020-03-30T23:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。