論文の概要: What Can Style Transfer and Paintings Do For Model Robustness?
- arxiv url: http://arxiv.org/abs/2011.14477v2
- Date: Thu, 27 May 2021 11:31:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-06 14:51:05.069963
- Title: What Can Style Transfer and Paintings Do For Model Robustness?
- Title(参考訳): モデルロバストネスにスタイルトランスファーと絵画は何ができるのか?
- Authors: Hubert Lin, Mitchell van Zuijlen, Sylvia C. Pont, Maarten W.A.
Wijntjes, Kavita Bala
- Abstract要約: モデルロバスト性を改善するための一般的な戦略は、データ拡張である。
近年の研究では、任意のスタイル転送がデータ拡張の一形態として利用できることが示されている。
本研究では,絵からの学習を知覚的データ拡張の形で行うことにより,モデルロバスト性の向上が期待できることを示す。
- 参考スコア(独自算出の注目度): 12.543035508615896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common strategy for improving model robustness is through data
augmentations. Data augmentations encourage models to learn desired
invariances, such as invariance to horizontal flipping or small changes in
color. Recent work has shown that arbitrary style transfer can be used as a
form of data augmentation to encourage invariance to textures by creating
painting-like images from photographs. However, a stylized photograph is not
quite the same as an artist-created painting. Artists depict perceptually
meaningful cues in paintings so that humans can recognize salient components in
scenes, an emphasis which is not enforced in style transfer. Therefore, we
study how style transfer and paintings differ in their impact on model
robustness. First, we investigate the role of paintings as style images for
stylization-based data augmentation. We find that style transfer functions well
even without paintings as style images. Second, we show that learning from
paintings as a form of perceptual data augmentation can improve model
robustness. Finally, we investigate the invariances learned from stylization
and from paintings, and show that models learn different invariances from these
differing forms of data. Our results provide insights into how stylization
improves model robustness, and provide evidence that artist-created paintings
can be a valuable source of data for model robustness.
- Abstract(参考訳): モデルのロバスト性を改善する一般的な戦略は、データ拡張である。
データ拡張はモデルに、水平反転への不変性や色の変化など、望ましい不変性を学ぶように促す。
近年の研究では、任意のスタイル転送を、写真から絵のような画像を作成することによって、テクスチャへのばらつきを促進するためのデータ拡張の一形態として使用できることが示されている。
しかし、様式化された写真は、画家が制作した絵画と全く同じではない。
画家は、絵画において知覚的に意味のある手がかりを描き、人間がシーンの聖なる構成要素を認識できるようにする。
そこで本研究では,モデルロバスト性に及ぼすスタイル伝達と絵画の影響について検討する。
まず,スタイライゼーションに基づくデータ拡張のためのスタイルイメージとしての絵画の役割について検討する。
絵画をスタイルイメージとしていなくても,スタイル転送機能は良好であることがわかった。
第2に,知覚データ拡張の形式として絵画から学ぶことで,モデルの堅牢性が向上することを示す。
最後に,スタイル化や絵画から得られた不変性について検討し,異なる形式のデータからモデルが異なる不変性を学ぶことを示す。
以上の結果から,スタイリゼーションがモデルロバスト性をどのように改善するか,また,アーティストが作成した絵画がモデルロバスト性に有用なデータ源であることを示す。
関連論文リスト
- Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - DIFF-NST: Diffusion Interleaving For deFormable Neural Style Transfer [27.39248034592382]
変形可能なスタイル転送を実現しつつ,新しいモデルのクラスを用いてスタイル転送を行う。
これらのモデルの先行モデルを活用することで、推論時に新たな芸術的コントロールが公開できることを示す。
論文 参考訳(メタデータ) (2023-07-09T12:13:43Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Neural Artistic Style Transfer with Conditional Adversaria [0.0]
神経芸術スタイル変換モデルは、有名な画像のスタイルを追加することで、単純な画像の外観を変更することができる。
本稿では,画像独立型ニューラルスタイル転送モデルに向けた2つの手法を提案する。
我々の新しい貢献は、モデルアーキテクチャによる循環的一貫性を保証する一方向GANモデルである。
論文 参考訳(メタデータ) (2023-02-08T04:34:20Z) - Inversion-Based Style Transfer with Diffusion Models [78.93863016223858]
以前の任意の例として誘導された芸術的画像生成法は、しばしば形状変化の制御や要素の伝達に失敗する。
画像のキー情報を効率よく正確に学習できるインバージョンベースのスタイル転送手法(InST)を提案する。
論文 参考訳(メタデータ) (2022-11-23T18:44:25Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Adversarial Style Augmentation for Domain Generalized Urban-Scene
Segmentation [120.96012935286913]
そこで本研究では,学習中にハードなスタイリング画像を生成可能な,新たな対向型拡張手法を提案する。
2つの合成から実のセマンティックセグメンテーションベンチマークの実験により、AdvStyleは目に見えない実領域におけるモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2022-07-11T14:01:25Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - StyleAugment: Learning Texture De-biased Representations by Style
Augmentation without Pre-defined Textures [7.81768535871051]
最近の強力な視覚分類器はテクスチャに偏り、形状情報はモデルによって見過ごされている。
Stylized ImageNetと呼ばれるアートスタイルのトランスファー手法を用いて、トレーニング画像を増強する簡単な試みは、テクスチャバイアスを低減することができる。
しかし、Stylized ImageNetアプローチには、忠実度と多様性の2つの欠点がある。
ミニバッチからスタイルを拡張したStyleAugmentを提案する。
論文 参考訳(メタデータ) (2021-08-24T07:17:02Z) - Enhancing Human Pose Estimation in Ancient Vase Paintings via
Perceptually-grounded Style Transfer Learning [15.888271913164969]
本研究では, 既知の人物の自然像のデータセットを適応させ, 画像スタイルの変換により, ギリシアの花瓶絵画の様式にアノテーションを付加する方法を示す。
我々は,スタイル変換学習を用いることで,平均平均精度(mAP)と平均平均リコール(mAR)を6%以上向上させることを示す。
徹底的なアブレーション研究では,スタイル強度の影響を対象とした解析を行い,モデルが汎用的なドメインスタイルを学習していることを明らかにする。
論文 参考訳(メタデータ) (2020-12-10T12:08:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。