論文の概要: Style Transfer: From Stitching to Neural Networks
- arxiv url: http://arxiv.org/abs/2409.00606v3
- Date: Tue, 12 Nov 2024 07:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-13 13:16:54.181677
- Title: Style Transfer: From Stitching to Neural Networks
- Title(参考訳): スタイル移行: スティッチからニューラルネットワークへ
- Authors: Xinhe Xu, Zhuoer Wang, Yihan Zhang, Yizhou Liu, Zhaoyue Wang, Zhihao Xu, Muhan Zhao, Huaiying Luo,
- Abstract要約: 本稿では,画像処理における2つのスタイル転送手法を比較した。
従来の方法では、既存の画像から小さなパッチを縫い合わせることで、新しい画像を合成する。また、セグメンテーションネットワークを使用して、前景オブジェクトを分離し、背景のみにスタイル転送を適用する、現代的な機械学習ベースのアプローチである。
- 参考スコア(独自算出の注目度): 5.539031975261105
- License:
- Abstract: This article compares two style transfer methods in image processing: the traditional method, which synthesizes new images by stitching together small patches from existing images, and a modern machine learning-based approach that uses a segmentation network to isolate foreground objects and apply style transfer solely to the background. The traditional method excels in creating artistic abstractions but can struggle with seamlessness, whereas the machine learning method preserves the integrity of foreground elements while enhancing the background, offering improved aesthetic quality and computational efficiency. Our study indicates that machine learning-based methods are more suited for real-world applications where detail preservation in foreground elements is essential.
- Abstract(参考訳): 本稿では,既存の画像から小さなパッチを縫い合わせることによって新たなイメージを合成する従来の手法と,前景オブジェクトを分離し,背景のみにスタイル転送を適用するセグメンテーションネットワークを用いた最新の機械学習アプローチとを比較した。
従来の手法は芸術的抽象化の創出に長けているが、シームレスさに苦しむことができる一方、機械学習手法は背景を改良しながら前景要素の整合性を保ち、美的品質と計算効率を向上させる。
本研究は,前景要素の詳細な保存が不可欠である実世界の応用において,機械学習に基づく手法がより適していることを示す。
関連論文リスト
- DiffUHaul: A Training-Free Method for Object Dragging in Images [78.93531472479202]
DiffUHaulと呼ばれるオブジェクトドラッグタスクのためのトレーニング不要な手法を提案する。
まず、各認知段階に注意マスキングを適用して、各生成を異なるオブジェクトにまたがってよりゆがみやすくする。
初期のデノナイジングステップでは、ソース画像とターゲット画像の注意特徴を補間して、新しいレイアウトを元の外観とスムーズに融合させる。
論文 参考訳(メタデータ) (2024-06-03T17:59:53Z) - Regional Style and Color Transfer [1.6993555918144923]
本稿では,地域スタイル移行の分野への新たな貢献について述べる。
既存の手法は、画像全体にわたって均一にスタイルを適用するという欠点に悩まされることが多い。
論文 参考訳(メタデータ) (2024-04-22T05:07:02Z) - Improved Object-Based Style Transfer with Single Deep Network [0.0]
本研究では,1つの深部畳み込みニューラルネットワークを用いたオブジェクトのイメージ・ツー・イメージ・スタイル・トランスファーのための新しい手法を提案する。
主な目的は、オリジナルな物体の特徴を保ちながら、芸術的なスタイルをシームレスに転写することで、画像内の物体の視覚的魅力を高めることである。
論文 参考訳(メタデータ) (2024-04-15T05:00:40Z) - Learning to Manipulate Artistic Images [27.803374400458402]
任意のスタイル画像操作ネットワーク(SIM-Net)を提案する。
計算効率と高分解能をある程度のバランスをとる。
定性的かつ定量的な実験は、我々の手法が最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-01-25T06:34:49Z) - Adapt and Align to Improve Zero-Shot Sketch-Based Image Retrieval [85.39613457282107]
スケッチに基づく画像検索のクロスドメイン性は困難である。
重要な課題に対処する効果的なAdaptとAlignのアプローチを提案する。
ゼロショットシナリオにおける画像テキスト基盤モデル(例えばCLIP)の最近の進歩に触発されて、学習したイメージの埋め込みを、より意味的なテキスト埋め込みと明確に整合させ、見知らぬクラスから見つからないクラスへの所望の知識伝達を実現する。
論文 参考訳(メタデータ) (2023-05-09T03:10:15Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Visual Representations for Transfer Learning by Suppressing
Texture [38.901410057407766]
自己教師付き学習では、低レベルのキューとしてのテクスチャは、ネットワークがより高いレベルの表現を学習することを防ぐショートカットを提供する。
本稿では,異方性拡散に基づく古典的手法を用いて,テクスチャを抑圧した画像を用いた強化訓練を提案する。
提案手法は,物体検出と画像分類における最先端の成果を実証的に示す。
論文 参考訳(メタデータ) (2020-11-03T18:27:03Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Region-adaptive Texture Enhancement for Detailed Person Image Synthesis [86.69934638569815]
RATE-Netは、シャープなテクスチャで人物画像を合成するための新しいフレームワークである。
提案するフレームワークは,テクスチャ強化モジュールを利用して,画像から外観情報を抽出する。
DeepFashionベンチマークデータセットで実施された実験は、既存のネットワークと比較して、我々のフレームワークの優位性を実証した。
論文 参考訳(メタデータ) (2020-05-26T02:33:21Z) - Scene Text Synthesis for Efficient and Effective Deep Network Training [62.631176120557136]
我々は,背景画像に前景オブジェクトを埋め込むことで,注釈付き訓練画像を構成する革新的な画像合成技術を開発した。
提案手法は,ディープネットワークトレーニングにおける合成画像の有用性を高める2つの重要な要素から構成される。
複数の公開データセットに対する実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2019-01-26T10:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。