論文の概要: MuVieCAST: Multi-View Consistent Artistic Style Transfer
- arxiv url: http://arxiv.org/abs/2312.05046v1
- Date: Fri, 8 Dec 2023 14:01:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-11 15:00:55.400523
- Title: MuVieCAST: Multi-View Consistent Artistic Style Transfer
- Title(参考訳): MuVieCAST: マルチビュー一貫性のあるアーティスティックスタイル転送
- Authors: Nail Ibrahimli, Julian F. P. Kooij, Liangliang Nan
- Abstract要約: モジュール型マルチビュー一貫したスタイル転送ネットワークアーキテクチャである MuVieCAST を紹介する。
MuVieCASTはスパースビューと高密度ビューの両方をサポートし、幅広いマルチビューイメージデータセットを扱うのに十分な汎用性を持つ。
- 参考スコア(独自算出の注目度): 6.767885381740952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce MuVieCAST, a modular multi-view consistent style transfer
network architecture that enables consistent style transfer between multiple
viewpoints of the same scene. This network architecture supports both sparse
and dense views, making it versatile enough to handle a wide range of
multi-view image datasets. The approach consists of three modules that perform
specific tasks related to style transfer, namely content preservation, image
transformation, and multi-view consistency enforcement. We extensively evaluate
our approach across multiple application domains including depth-map-based
point cloud fusion, mesh reconstruction, and novel-view synthesis. Our
experiments reveal that the proposed framework achieves an exceptional
generation of stylized images, exhibiting consistent outcomes across
perspectives. A user study focusing on novel-view synthesis further confirms
these results, with approximately 68\% of cases participants expressing a
preference for our generated outputs compared to the recent state-of-the-art
method. Our modular framework is extensible and can easily be integrated with
various backbone architectures, making it a flexible solution for multi-view
style transfer. More results are demonstrated on our project page:
muviecast.github.io
- Abstract(参考訳): モジュール型マルチビュー一貫したスタイル転送ネットワークアーキテクチャであるMuVieCASTを導入し、同一シーンの複数の視点間で一貫したスタイル転送を実現する。
このネットワークアーキテクチャはスパースビューと高密度ビューの両方をサポートし、幅広いマルチビューイメージデータセットを扱うのに十分な汎用性を持つ。
このアプローチは、スタイル転送に関連する特定のタスクを実行する3つのモジュール、すなわちコンテンツ保存、画像変換、マルチビュー一貫性の強制で構成される。
深度マップに基づく点雲融合,メッシュ再構成,新規ビュー合成など,複数のアプリケーション領域にわたるアプローチを幅広く評価する。
実験により,提案手法は定型化画像の例外的な生成を達成し,視点を通して一貫した結果が得られることが明らかとなった。
新規視合成に焦点をあてたユーザ研究により,最近の最先端手法と比較して,生成した出力に対する嗜好を表わす症例の約68\%が,これらの結果をさらに裏付けることができた。
私たちのモジュラーフレームワークは拡張可能で、様々なバックボーンアーキテクチャと簡単に統合できます。
さらなる結果はプロジェクトページで示されています。 muviecast.github.io
関連論文リスト
- RCNet: Deep Recurrent Collaborative Network for Multi-View Low-Light Image Enhancement [19.751696790765635]
マルチビュー低照度画像の高精細化について検討する。
Recurrent Collaborative Network (RCNet) に基づく深層多視点化フレームワークを提案する。
実験の結果,我々のRCNetは,他の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2024-09-06T15:49:49Z) - Mono-ViFI: A Unified Learning Framework for Self-supervised Single- and Multi-frame Monocular Depth Estimation [11.611045114232187]
最近の方法では、既存のカメラビュー間でのみビュー合成が行われており、ガイダンスが不十分である。
フローベースビデオフレーム作成(VFI)により、より仮想的なカメラビューを合成しようと試みる。
多フレーム推論では、MaryDepthのような明示的な幾何ベースのメソッドで発生する動的オブジェクトの問題を横取りするために、機能融合パラダイムに戻ります。
シングルフレームとマルチフレームの奥行きを双方向に接続するために,Mono-ViFIという自己教師型学習フレームワークを構築した。
論文 参考訳(メタデータ) (2024-07-19T08:51:51Z) - CountFormer: Multi-View Crowd Counting Transformer [43.92763885594129]
我々は,マルチビュー画像レベルの特徴をシーンレベルのボリューム表現に高めるために,textbfCountFormerと呼ばれる3D MVCフレームワークを提案する。
カメラエンコーディング戦略を導入することで、CountFormerは、ボリュームクエリと画像レベルの機能にカメラパラメータを埋め込むことに成功した。
提案手法は,様々な広く使用されているデータセットに対して,最先端のアプローチに対して好意的に機能する。
論文 参考訳(メタデータ) (2024-07-02T08:19:48Z) - Many-to-many Image Generation with Auto-regressive Diffusion Models [59.5041405824704]
本稿では,与えられた画像集合から関連画像系列を生成可能な多対多画像生成のためのドメイン汎用フレームワークを提案する。
我々は,25個の相互接続された画像を含む12Mの合成マルチイメージサンプルを含む,新しい大規模マルチイメージデータセットMISを提案する。
我々はM2Mを学習し、M2Mは多対多生成のための自己回帰モデルであり、各画像は拡散フレームワーク内でモデル化される。
論文 参考訳(メタデータ) (2024-04-03T23:20:40Z) - Consolidating Attention Features for Multi-view Image Editing [126.19731971010475]
本研究では,空間制御に基づく幾何学的操作に着目し,様々な視点にまたがって編集プロセスを統合する手法を提案する。
編集画像の内部クエリ機能に基づいて訓練されたニューラルラジアンス場QNeRFを紹介する。
拡散時間の経過とともにクエリをよりよく統合する、プログレッシブで反復的な手法により、プロセスを洗練します。
論文 参考訳(メタデータ) (2024-02-22T18:50:18Z) - ConsistNet: Enforcing 3D Consistency for Multi-view Images Diffusion [61.37481051263816]
本稿では,1つの3Dオブジェクトのイメージが与えられた場合,同じオブジェクトの複数の画像を生成できる手法(ConsistNet)を提案する。
凍結したZero123のバックボーン上での3次元の一貫性を効果的に学習し、1つのA100 GPU上で40秒以内でオブジェクトの周囲のビューを生成する。
論文 参考訳(メタデータ) (2023-10-16T12:29:29Z) - Multi-Spectral Image Stitching via Spatial Graph Reasoning [52.27796682972484]
空間グラフ推論に基づくマルチスペクトル画像縫合法を提案する。
同一のビュー位置から複数スケールの補完機能をノードに埋め込む。
空間的・チャネル的次元に沿った長距離コヒーレンスを導入することにより、画素関係の相補性とチャネル相互依存性は、整列したマルチビュー特徴の再構築に寄与する。
論文 参考訳(メタデータ) (2023-07-31T15:04:52Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z) - Distribution Aligned Multimodal and Multi-Domain Image Stylization [76.74823384524814]
マルチモーダルおよびマルチドメインスタイル転送のための統一フレームワークを提案する。
提案手法の鍵となるコンポーネントは,新しいスタイル分布アライメントモジュールである。
我々は,様々な芸術様式やジャンルで絵画の様式を伝達する枠組みを検証した。
論文 参考訳(メタデータ) (2020-06-02T07:25:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。