論文の概要: WSAM: Visual Explanations from Style Augmentation as Adversarial
Attacker and Their Influence in Image Classification
- arxiv url: http://arxiv.org/abs/2308.14995v1
- Date: Tue, 29 Aug 2023 02:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 15:59:49.888951
- Title: WSAM: Visual Explanations from Style Augmentation as Adversarial
Attacker and Their Influence in Image Classification
- Title(参考訳): WSAM: 敵攻撃者としてのスタイル拡張からの視覚的説明と画像分類への影響
- Authors: Felipe Moreno-Vera and Edgar Medina and Jorge Poco
- Abstract要約: 本稿では,一般線形変換におけるランダム化の改善に加えて,ノイズベースサンプリングを用いたスタイル拡張アルゴリズムについて概説する。
すべてのモデルは、画像のスタイリングに対して驚くべき堅牢性を示すだけでなく、以前のすべての手法よりも優れており、STL-10データセットの最先端性能を上回っている。
- 参考スコア(独自算出の注目度): 2.282270386262498
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Currently, style augmentation is capturing attention due to convolutional
neural networks (CNN) being strongly biased toward recognizing textures rather
than shapes. Most existing styling methods either perform a low-fidelity style
transfer or a weak style representation in the embedding vector. This paper
outlines a style augmentation algorithm using stochastic-based sampling with
noise addition to improving randomization on a general linear transformation
for style transfer. With our augmentation strategy, all models not only present
incredible robustness against image stylizing but also outperform all previous
methods and surpass the state-of-the-art performance for the STL-10 dataset. In
addition, we present an analysis of the model interpretations under different
style variations. At the same time, we compare comprehensive experiments
demonstrating the performance when applied to deep neural architectures in
training settings.
- Abstract(参考訳): 現在、畳み込みニューラルネットワーク(cnn)は形ではなくテクスチャ認識に強く偏っているため、スタイル拡張が注目を集めている。
既存のスタイリング手法の多くは、埋め込みベクトルにおいて低忠実度スタイル転送または弱いスタイル表現を実行する。
本稿では,雑音付加を伴う確率的サンプリングを用いたスタイル拡張アルゴリズムについて概説し,一般線形変換におけるランダム化の改善について述べる。
我々の拡張戦略では、すべてのモデルが画像スタイリングに対して驚くべき堅牢性を示すだけでなく、以前の手法よりも優れており、STL-10データセットの最先端性能を上回っている。
さらに,様々なスタイル変化を考慮したモデル解釈の分析を行う。
同時に,学習環境におけるディープニューラルアーキテクチャに適用した場合のパフォーマンスを示す包括的実験を比較した。
関連論文リスト
- HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - AesFA: An Aesthetic Feature-Aware Arbitrary Neural Style Transfer [6.518925259025401]
この研究は軽量だが効果的なモデルであるAesFA -- Aesthetic Feature-Aware NSTを提案する。
第一の考え方は、イメージをその周波数で分解して、参照画像から美的スタイルをうまく切り離すことである。
ネットワークがより明確な表現を抽出する能力を改善するために、この研究は新たな美的特徴であるコントラッシブ・ロスを導入した。
論文 参考訳(メタデータ) (2023-12-10T16:29:54Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - StyleAdv: Meta Style Adversarial Training for Cross-Domain Few-Shot
Learning [89.86971464234533]
Cross-Domain Few-Shot Learning (CD-FSL)は、最近登場したタスクで、異なるドメインにわたる数ショットの学習に対処している。
本稿では,モデルに依存しないメタスタイル逆アタック(StyleAdv)手法と,新しいスタイル逆アタック手法を提案する。
本手法は視覚的スタイルに対して徐々に頑健であり,新たなターゲットデータセットの一般化能力を高める。
論文 参考訳(メタデータ) (2023-02-18T11:54:37Z) - Style-Agnostic Reinforcement Learning [9.338454092492901]
本稿では,スタイル伝達と逆学習の両方を用いて,スタイル非依存表現を学習する新しい手法を提案する。
本手法は,固有対向型生成器から生成される多様な画像スタイルでアクターを訓練する。
提案手法は,Procgen and Distracting Control Suiteベンチマークにおける最先端の手法よりも,競争力や性能の向上が期待できる。
論文 参考訳(メタデータ) (2022-08-31T13:45:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。