論文の概要: Curve-based Neural Style Transfer
- arxiv url: http://arxiv.org/abs/2401.08579v1
- Date: Tue, 3 Oct 2023 20:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-22 10:02:01.782364
- Title: Curve-based Neural Style Transfer
- Title(参考訳): 曲線型ニューラルスタイルトランスファー
- Authors: Yu-hsuan Chen, Levent Burak Kara, Jonathan Cagan
- Abstract要約: 本研究は,曲線に基づく設計スケッチに特化して設計された新しいパラメトリック・スタイル・トランスファー・フレームワークを提案する。
バイナリスケッチ変換の処理におけるニューラルスタイルの転送手法が直面する従来の課題は、パラメトリックな形状編集規則の利用によって効果的に解決される。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This research presents a new parametric style transfer framework specifically
designed for curve-based design sketches. In this research, traditional
challenges faced by neural style transfer methods in handling binary sketch
transformations are effectively addressed through the utilization of parametric
shape-editing rules, efficient curve-to-pixel conversion techniques, and the
fine-tuning of VGG19 on ImageNet-Sketch, enhancing its role as a feature
pyramid network for precise style extraction. By harmonizing intuitive
curve-based imagery with rule-based editing, this study holds the potential to
significantly enhance design articulation and elevate the practice of style
transfer within the realm of product design.
- Abstract(参考訳): 本研究では,曲線型デザインスケッチ用に設計された新しいパラメトリックスタイルトランスファーフレームワークを提案する。
本研究では,2値スケッチ変換処理におけるニューラルスタイル変換手法が直面する従来の課題を,パラメトリックな形状編集規則,効率的なカーブ・ツー・ピクセル変換手法,画像Net-SketchにおけるVGG19の微調整などを用いて効果的に解決し,正確なスタイル抽出のための特徴ピラミッドネットワークとしての役割を高めた。
本研究は,直観的曲線画像と規則的編集とを調和させることにより,デザインの明瞭化と,製品デザインの領域内でのスタイル伝達の実践を向上する可能性を秘めている。
関連論文リスト
- StyleDyRF: Zero-shot 4D Style Transfer for Dynamic Neural Radiance
Fields [21.55426133036809]
既存の3Dスタイル転送の取り組みは、スタイル画像とニューラルレイディアンスフィールド(NeRF)の視覚的特徴を効果的に組み合わせることができる
本稿では,4次元特徴量を表す手法であるStyleDyRFを紹介する。
提案手法は、4Dフォトリアリスティックなスタイルの転送結果をゼロショット方式でレンダリングするだけでなく、視覚的品質と一貫性の点で既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-13T07:42:21Z) - StyleRF: Zero-shot 3D Style Transfer of Neural Radiance Fields [52.19291190355375]
StyleRF(Style Radiance Fields)は、革新的な3Dスタイル転送技術である。
3Dシーンを表現するために、高精細な特徴の明確なグリッドを使用し、ボリュームレンダリングによって高精細な幾何学を確実に復元することができる。
グリッド機能は参照スタイルに従って変換され、それが直接的に高品質のゼロショットスタイルの転送につながる。
論文 参考訳(メタデータ) (2023-03-19T08:26:06Z) - A Unified Arbitrary Style Transfer Framework via Adaptive Contrastive
Learning [84.8813842101747]
Unified Contrastive Arbitrary Style Transfer (UCAST)は、新しいスタイルの学習・伝達フレームワークである。
入力依存温度を導入することで,スタイル伝達のための適応型コントラスト学習方式を提案する。
本フレームワークは,スタイル表現とスタイル伝達のための並列コントラスト学習方式,スタイル分布を効果的に学習するためのドメイン拡張モジュール,スタイル伝達のための生成ネットワークという,3つの重要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-03-09T04:35:00Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z) - Tool- and Domain-Agnostic Parameterization of Style Transfer Effects
Leveraging Pretrained Perceptual Metrics [35.293166642478866]
パラメータ値にエンドツーエンドの転送効果を転写するパラメトリック転写を提案する。
本フレームワークは,ディープラーニング技術を利用した計算設計支援を効果的に活用する。
論文 参考訳(メタデータ) (2021-05-19T15:39:10Z) - Progressive Encoding for Neural Optimization [92.55503085245304]
メッシュ転送におけるppe層の能力と,そのアドバンテージを,現代の表面マッピング技術と比較した。
最も重要な点は, パラメタライズフリーな手法であり, 様々な対象形状表現に適用可能であることである。
論文 参考訳(メタデータ) (2021-04-19T08:22:55Z) - DWDN: Deep Wiener Deconvolution Network for Non-Blind Image Deblurring [66.91879314310842]
本稿では,古典的なWienerデコンボリューションフレームワークを学習深い特徴と統合することにより,特徴空間における明示的なデコンボリューションプロセスを提案する。
マルチスケールのカスケード機能改善モジュールは、分離された深い特徴から退色画像を予測する。
提案したDeep Wienerデコンボリューションネットワークは,目に見える成果物が少なく,かつ,最先端の非盲点画像デコンボリューション手法を広いマージンで定量的に上回っていることを示す。
論文 参考訳(メタデータ) (2021-03-18T00:38:11Z) - Parameter-Free Style Projection for Arbitrary Style Transfer [64.06126075460722]
本稿では,パラメータフリー,高速,効果的なコンテンツスタイル変換のための特徴レベル変換手法であるStyle Projectionを提案する。
本稿では、任意の画像スタイルの転送にスタイル投影を利用するリアルタイムフィードフォワードモデルを提案する。
論文 参考訳(メタデータ) (2020-03-17T13:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。