論文の概要: Style-Aware Normalized Loss for Improving Arbitrary Style Transfer
- arxiv url: http://arxiv.org/abs/2104.10064v1
- Date: Sun, 18 Apr 2021 20:02:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 05:33:48.292763
- Title: Style-Aware Normalized Loss for Improving Arbitrary Style Transfer
- Title(参考訳): 任意型転送改善のためのスタイルアウェア正規化損失
- Authors: Jiaxin Cheng, Ayush Jaiswal, Yue Wu, Pradeep Natarajan, Prem Natarajan
- Abstract要約: 50%以上の時間、astスタイル化された画像は、通常過度なスタイライゼーションや過度なスタイライゼーションのため、人間のユーザーには受け入れられない。
この問題を解決するためのシンプルで効果的なソリューションを提案します。
- 参考スコア(独自算出の注目度): 19.575502006686836
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Style Transfer (NST) has quickly evolved from single-style to
infinite-style models, also known as Arbitrary Style Transfer (AST). Although
appealing results have been widely reported in literature, our empirical
studies on four well-known AST approaches (GoogleMagenta, AdaIN,
LinearTransfer, and SANet) show that more than 50% of the time, AST stylized
images are not acceptable to human users, typically due to under- or
over-stylization. We systematically study the cause of this imbalanced style
transferability (IST) and propose a simple yet effective solution to mitigate
this issue. Our studies show that the IST issue is related to the conventional
AST style loss, and reveal that the root cause is the equal weightage of
training samples irrespective of the properties of their corresponding style
images, which biases the model towards certain styles. Through investigation of
the theoretical bounds of the AST style loss, we propose a new loss that
largely overcomes IST. Theoretical analysis and experimental results validate
the effectiveness of our loss, with over 80% relative improvement in style
deception rate and 98% relatively higher preference in human evaluation.
- Abstract(参考訳): NST(Neural Style Transfer)は、単一スタイルから無限スタイルモデル(Arbitrary Style Transfer)へと急速に進化してきた。
GoogleMagenta、AdaIN、LinearTransfer、SANetの4つのよく知られたASTアプローチに関する実証研究によると、ASTのスタイリングされたイメージは、一般的に過小評価や過小評価のため、その50%以上は人間には受け入れられない。
我々はこの不均衡なスタイル転送可能性(IST)の原因を体系的に研究し、この問題を軽減するための単純で効果的な解決策を提案する。
本研究は, IST問題は従来のASTスタイルの損失と関係があることを示し, その根本原因は, 対応するスタイル画像の性質に関わらず, トレーニングサンプルの重み付けであり, モデルが一定のスタイルに偏っていることを明らかにする。
ASTスタイルの損失の理論的境界について検討し,ISTを克服する新たな損失を提案する。
理論的解析と実験の結果は, 80%以上の抑うつ率と98%の人間評価の嗜好が向上し, 損失の有効性を検証した。
関連論文リスト
- Degradation-Guided One-Step Image Super-Resolution with Diffusion Priors [75.24313405671433]
拡散に基づく画像超解像法 (SR) は、事前訓練された大規模なテキスト・画像拡散モデルを先行として活用することにより、顕著な成功を収めた。
本稿では,拡散型SR手法の効率問題に対処する新しい一段階SRモデルを提案する。
既存の微調整戦略とは異なり、SR専用の劣化誘導低ランク適応 (LoRA) モジュールを設計した。
論文 参考訳(メタデータ) (2024-09-25T16:15:21Z) - Boosting Adversarial Transferability for Skeleton-based Action Recognition via Exploring the Model Posterior Space [20.900293902355358]
ヒト活動認識(HAR)における骨格運動の役割
以前の攻撃はすべて、未知のS-HARモデル間の転送に苦労した。
本稿では,サロゲートの集合に対するモデル後部空間を効果的に探索できるDual Bayesian戦略を提案する。
論文 参考訳(メタデータ) (2024-07-11T14:59:31Z) - Navigating Beyond Dropout: An Intriguing Solution Towards Generalizable
Image Super Resolution [46.31021254956368]
我々は、Dropoutがモデルが細部を忠実に再構築する能力を損なう、望ましくない副作用を同時に導入すると主張している。
本稿では,1次および2次の特徴統計を単純に調整することで,モデルの一般化能力を向上する,簡単かつ効果的なトレーニング戦略を提案する。
実験結果から,本手法はモデルに依存しない正規化や,7つのベンチマークデータセット上でのDropoutよりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2024-02-29T07:44:31Z) - HiCAST: Highly Customized Arbitrary Style Transfer with Adapter Enhanced
Diffusion Models [84.12784265734238]
Arbitrary Style Transfer (AST)の目標は、あるスタイル参照の芸術的特徴を所定の画像/ビデオに注入することである。
各種のセマンティックな手がかりに基づいてスタイリング結果を明示的にカスタマイズできるHiCASTを提案する。
新たな学習目標をビデオ拡散モデルトレーニングに活用し,フレーム間の時間的一貫性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-01-11T12:26:23Z) - WSAM: Visual Explanations from Style Augmentation as Adversarial
Attacker and Their Influence in Image Classification [2.282270386262498]
本稿では,一般線形変換におけるランダム化の改善に加えて,ノイズベースサンプリングを用いたスタイル拡張アルゴリズムについて概説する。
すべてのモデルは、画像のスタイリングに対して驚くべき堅牢性を示すだけでなく、以前のすべての手法よりも優れており、STL-10データセットの最先端性能を上回っている。
論文 参考訳(メタデータ) (2023-08-29T02:50:36Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Improving Robust Generalization by Direct PAC-Bayesian Bound
Minimization [27.31806334022094]
最近の研究では、敵の攻撃に対して訓練されたモデルが、テストセットよりも高い堅牢性を示すという、オーバーフィッティングのような現象が示されている。
本稿では、ロバストなPAC-ベイジアン境界の異なる形式を考察し、モデル後部に関して直接最小化する。
我々は、視覚変換器(ViT)を用いたCIFAR-10/100とImageNetに対するTrH正規化手法を評価し、ベースライン対向ロバスト性アルゴリズムと比較した。
論文 参考訳(メタデータ) (2022-11-22T23:12:00Z) - Jo-SRC: A Contrastive Approach for Combating Noisy Labels [58.867237220886885]
Jo-SRC (Joint Sample Selection and Model Regularization based on Consistency) というノイズロバスト手法を提案する。
具体的には、対照的な学習方法でネットワークをトレーニングする。
各サンプルの2つの異なるビューからの予測は、クリーンまたは分布不足の「可能性」を推定するために使用されます。
論文 参考訳(メタデータ) (2021-03-24T07:26:07Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - On the Loss Landscape of Adversarial Training: Identifying Challenges
and How to Overcome Them [57.957466608543676]
機械学習モデルの損失景観に及ぼす対人訓練の影響を解析する。
曲率の増加と散乱勾配の増大により, 対向損失景観は最適化にはあまり好ましくないことを示す。
論文 参考訳(メタデータ) (2020-06-15T13:50:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。