論文の概要: GPU-Accelerated Mobile Multi-view Style Transfer
- arxiv url: http://arxiv.org/abs/2003.00706v1
- Date: Mon, 2 Mar 2020 08:20:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:42:07.123074
- Title: GPU-Accelerated Mobile Multi-view Style Transfer
- Title(参考訳): gpuアクセラレーションによるモバイルマルチビュースタイル転送
- Authors: Puneet Kohli, Saravana Gunaseelan, Jason Orozco, Yiwen Hua, Edward Li,
and Nicolas Dahlquist
- Abstract要約: 3Dフォトプラットフォームは、コンテンツ作成を容易にするシンプルな画像操作ツールを提供する必要がある。
GPU技術の最近の進歩によって推進されたアーティスティックなニューラルスタイルの転送は、従来の写真を強化するツールのひとつだ。
本稿では、ビュー間のスタイル整合性を実現するGPUアクセラレーション方式のマルチビュー転送パイプラインを提案する。
- 参考スコア(独自算出の注目度): 0.04618037115403289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An estimated 60% of smartphones sold in 2018 were equipped with multiple rear
cameras, enabling a wide variety of 3D-enabled applications such as 3D Photos.
The success of 3D Photo platforms (Facebook 3D Photo, Holopix, etc) depend on a
steady influx of user generated content. These platforms must provide simple
image manipulation tools to facilitate content creation, akin to traditional
photo platforms. Artistic neural style transfer, propelled by recent
advancements in GPU technology, is one such tool for enhancing traditional
photos. However, naively extrapolating single-view neural style transfer to the
multi-view scenario produces visually inconsistent results and is prohibitively
slow on mobile devices. We present a GPU-accelerated multi-view style transfer
pipeline which enforces style consistency between views with on-demand
performance on mobile platforms. Our pipeline is modular and creates high
quality depth and parallax effects from a stereoscopic image pair.
- Abstract(参考訳): 2018年に販売されたスマートフォンの60%は複数のリアカメラを備えており、3d写真のような幅広い3d対応アプリケーションを可能にしている。
3Dフォトプラットフォーム(Facebook 3Dフォト、Holopixなど)の成功は、安定したユーザー生成コンテンツの流入に依存している。
これらのプラットフォームは、従来の写真プラットフォームと同様に、コンテンツ作成を容易にするシンプルな画像操作ツールを提供しなければならない。
GPU技術の最近の進歩によって推進された芸術的ニューラルスタイルの転送は、従来の写真を強化するツールのひとつだ。
しかし,マルチビューシナリオへの単一ビューのニューラルスタイルのトランスファーは視覚的に矛盾する結果となり,モバイルデバイスでは極めて遅い。
モバイルプラットフォーム上でのオンデマンドパフォーマンスとビュー間のスタイル整合性を実現するために,GPUによるマルチビュースタイル転送パイプラインを提案する。
我々のパイプラインはモジュラーであり、立体画像対から高品質な深度とパララックス効果を生み出す。
関連論文リスト
- Envision3D: One Image to 3D with Anchor Views Interpolation [18.31796952040799]
本研究では,1枚の画像から高品質な3Dコンテンツを効率よく生成する新しい手法であるEnvision3Dを提案する。
テクスチャと幾何学の観点から高品質な3Dコンテンツを生成することができ、従来の画像から3Dのベースライン法を超越している。
論文 参考訳(メタデータ) (2024-03-13T18:46:33Z) - LGM: Large Multi-View Gaussian Model for High-Resolution 3D Content
Creation [51.19871052619077]
テキストプロンプトやシングルビュー画像から高解像度の3Dモデルを生成するための新しいフレームワークであるLarge Multi-View Gaussian Model (LGM)を紹介する。
我々は,5秒以内に3Dオブジェクトを生成する高速な速度を維持しながら,トレーニング解像度を512に向上し,高解像度な3Dコンテンツ生成を実現する。
論文 参考訳(メタデータ) (2024-02-07T17:57:03Z) - Event-guided Multi-patch Network with Self-supervision for Non-uniform
Motion Deblurring [113.96237446327795]
本稿では,ぼやけた画像やビデオを扱うための,イベント誘導型深層階層型マルチパッチネットワークを提案する。
また、ビデオ内の複雑なぼやけに対処するために、動画に含まれる動きの手がかりを利用するイベント誘導アーキテクチャを提案する。
我々のMPNは、現在のマルチスケール手法に比べて40倍高速なランタイムでGoProとVideoDeblurringデータセットの最先端を達成しています。
論文 参考訳(メタデータ) (2023-02-14T15:58:00Z) - PV3D: A 3D Generative Model for Portrait Video Generation [94.96025739097922]
我々は,多視点一貫した肖像画を合成できる最初の生成フレームワークであるPV3Dを提案する。
PV3Dは、静的ポートレートのアニメーションやビュー一貫性のあるビデオモーション編集など、多くのダウンストリームアプリケーションをサポートすることができる。
論文 参考訳(メタデータ) (2022-12-13T05:42:44Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - Learned Smartphone ISP on Mobile GPUs with Deep Learning, Mobile AI &
AIM 2022 Challenge: Report [59.831324427712815]
この課題は、効率的なエンドツーエンドのAIベースの画像処理パイプラインを開発することを目的としている。
モデルはSnapdragonの8 Gen 1 GPUで評価され、一般的なディープラーニング運用の大部分で優れた加速結果が得られた。
提案されたソリューションは、最近のすべてのモバイルGPUと互換性があり、フルHD写真を20-50ミリ秒未満で処理でき、高い忠実度を達成できる。
論文 参考訳(メタデータ) (2022-11-07T22:13:10Z) - 3D Moments from Near-Duplicate Photos [67.15199743223332]
3D Momentsは、新しい計算写真効果だ。
1枚目から2枚目までのシーンの動きを円滑に補間するビデオを作成する。
本システムは,モーションパララックスとシーンダイナミックスを併用したフォトリアリスティックな時空ビデオを生成する。
論文 参考訳(メタデータ) (2022-05-12T17:56:18Z) - Learning to Deblur and Rotate Motion-Blurred Faces [43.673660541417995]
ニューラルネットワークを用いて、1つの画像と対応する顔の視線から3Dビデオ表現を再構成する。
次に、推定視線に対するカメラ視点と、エンコーダデコーダネットワークに入力されるぼやけた画像とを比較し、新しいカメラ視点でシャープフレームのビデオを生成する。
論文 参考訳(メタデータ) (2021-12-14T17:51:19Z) - Learning Image-adaptive 3D Lookup Tables for High Performance Photo
Enhancement in Real-time [33.93249921871407]
本稿では,画像適応型3次元ルックアップテーブル(3D LUT)を学習し,高速でロバストな画像強調を実現する。
アノテーション付きデータからペアワイドやアンペアラーニングを用いて3D LUTを学習する。
我々は、複数のベース3D LUTと小さな畳み込みニューラルネットワーク(CNN)をエンドツーエンドで同時に学習する。
論文 参考訳(メタデータ) (2020-09-30T06:34:57Z) - One Shot 3D Photography [40.83662583097118]
本稿では,3D画像の作成と閲覧を行うエンド・ツー・エンドシステムを提案する。
私たちの3D写真は1枚の写真で撮影され、モバイルデバイスで直接処理されます。
論文 参考訳(メタデータ) (2020-08-27T17:59:31Z) - MVStylizer: An Efficient Edge-Assisted Video Photorealistic Style
Transfer System for Mobile Phones [39.94170753983804]
携帯電話用エッジアシスト型ビデオ転送システムであるMVStylizerを提案する。
MVStylizerは、最先端の方法に比べて、より優れた視覚的品質でスタイリングされたビデオを生成することができる。
論文 参考訳(メタデータ) (2020-05-24T00:54:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。