論文の概要: Extreme Image Transformations Facilitate Robust Latent Object
Representations
- arxiv url: http://arxiv.org/abs/2310.07725v1
- Date: Tue, 19 Sep 2023 21:31:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-15 14:17:16.445337
- Title: Extreme Image Transformations Facilitate Robust Latent Object
Representations
- Title(参考訳): 頑健な潜在オブジェクト表現を実現する極端画像変換
- Authors: Girik Malik and Dakarai Crowder and Ennio Mingolla
- Abstract要約: 敵攻撃は、野生の機械の物体認識能力に影響を与える可能性がある。
これらは多くの場合、入力ラベルとクラスラベルの間に急激な相関関係があり、大きなネットワークで記憶される傾向がある。
本研究は,エクストリーム・イメージ・トランスフォーメーション(EIT)を用いた既訓練オフ・ザ・シェルフネットワークの微調整によって,頑健な潜伏表現の学習を支援するだけでなく,様々な強度の共通の敵攻撃に対して,これらのネットワークの性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial attacks can affect the object recognition capabilities of
machines in wild. These can often result from spurious correlations between
input and class labels, and are prone to memorization in large networks. While
networks are expected to do automated feature selection, it is not effective at
the scale of the object. Humans, however, are able to select the minimum set of
features required to form a robust representation of an object. In this work,
we show that finetuning any pretrained off-the-shelf network with Extreme Image
Transformations (EIT) not only helps in learning a robust latent
representation, it also improves the performance of these networks against
common adversarial attacks of various intensities. Our EIT trained networks
show strong activations in the object regions even when tested with more
intense noise, showing promising generalizations across different kinds of
adversarial attacks.
- Abstract(参考訳): 敵攻撃は、野生の機械の物体認識能力に影響を与える可能性がある。
これらはしばしば入力ラベルとクラスラベルの間に急激な相関関係があり、大きなネットワークで記憶される傾向がある。
ネットワークは自動的な特徴選択を行うと予想されるが、オブジェクトのスケールでは有効ではない。
しかし、人間はオブジェクトの堅牢な表現を形成するために必要な最小限の機能セットを選択することができる。
本研究は, 既訓練オフザシェルフネットワークをエクストリーム・イメージ・トランスフォーメーション(EIT)で微調整することで, 頑健な潜在表現を学習するだけでなく, 様々な強度の共通の敵攻撃に対して, これらのネットワークの性能を向上させることを示す。
EITトレーニングネットワークは、より強いノイズでテストしても、対象領域で強い活性化を示し、様々な種類の敵攻撃に対して有望な一般化を示す。
関連論文リスト
- Protecting Feed-Forward Networks from Adversarial Attacks Using Predictive Coding [0.20718016474717196]
逆の例は、機械学習(ML)モデルが誤りを犯すように設計された、修正された入力イメージである。
本研究では,敵防衛のための補助的なステップとして,予測符号化ネットワーク(PCnet)を用いた実用的で効果的な手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T21:38:05Z) - Prompt-Driven Dynamic Object-Centric Learning for Single Domain
Generalization [61.64304227831361]
単一ドメインの一般化は、単一のソースドメインデータからモデルを学び、他の見えないターゲットドメイン上での一般的なパフォーマンスを達成することを目的としている。
本稿では,画像の複雑さの変化に対応することを目的とした,素早い学習に基づく動的物体中心知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2024-02-28T16:16:51Z) - ZoomNeXt: A Unified Collaborative Pyramid Network for Camouflaged Object Detection [70.11264880907652]
最近のオブジェクト(COD)は、現実のシナリオでは極めて複雑で難しい、視覚的にブレンドされたオブジェクトを周囲に分割しようと試みている。
本研究では,不明瞭な画像を観察したり,ズームインしたりアウトしたりする際の人間の行動を模倣する,効果的な統合協調ピラミッドネットワークを提案する。
我々のフレームワークは、画像とビデオのCODベンチマークにおいて、既存の最先端の手法を一貫して上回っている。
論文 参考訳(メタデータ) (2023-10-31T06:11:23Z) - A Perturbation Resistant Transformation and Classification System for
Deep Neural Networks [0.685316573653194]
深層畳み込みニューラルネットワークは、さまざまな自然画像の正確な分類を行うが、設計時には容易に認識できる。
本稿では,攻撃的かつ容易に推定できないマルチプロハングトレーニング,非バウンド入力変換,画像アンサンブルシステムを設計する。
論文 参考訳(メタデータ) (2022-08-25T02:58:47Z) - Understanding Robust Learning through the Lens of Representation
Similarities [37.66877172364004]
ディープニューラルネットワーク(DNN)の望ましい性質として、敵の例に対するロバストさが出現した
本稿では,頑健な学習によって学習される表現の性質が,標準的非破壊的学習から得られた表現とどのように異なるかを理解することを目的とする。
論文 参考訳(メタデータ) (2022-06-20T16:06:20Z) - Stereoscopic Universal Perturbations across Different Architectures and
Datasets [60.021985610201156]
本研究では,画像の逆摂動が不均一性推定タスクの深部ステレオマッチングネットワークに与える影響について検討する。
本稿では,データセット内の任意のステレオ画像対に追加されると,ステレオネットワークを騙すことのできる,単一の摂動セットを構築する方法を提案する。
我々の摂動は、最先端のステレオネットワークのD1エラーを1%から87%に増やすことができる。
論文 参考訳(メタデータ) (2021-12-12T02:11:31Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Understanding the Role of Individual Units in a Deep Neural Network [85.23117441162772]
本稿では,画像分類と画像生成ネットワーク内の隠れ単位を系統的に同定する分析フレームワークを提案する。
まず、シーン分類に基づいて訓練された畳み込みニューラルネットワーク(CNN)を分析し、多様なオブジェクト概念にマッチするユニットを発見する。
第2に、シーンを生成するために訓練されたGANモデルについて、同様の分析手法を用いて分析する。
論文 参考訳(メタデータ) (2020-09-10T17:59:10Z) - TREND: Transferability based Robust ENsemble Design [6.663641564969944]
本稿では, ネットワークアーキテクチャ, 入力, 重量, アクティベーションの量子化が, 対向サンプルの転送性に及ぼす影響について検討する。
本研究では,ソースとターゲット間の入力量子化によってトランスファービリティが著しく阻害されていることを示す。
我々は、これに対抗するために、新しい最先端のアンサンブル攻撃を提案する。
論文 参考訳(メタデータ) (2020-08-04T13:38:14Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。