論文の概要: BGGAN: Bokeh-Glass Generative Adversarial Network for Rendering
Realistic Bokeh
- arxiv url: http://arxiv.org/abs/2011.02242v1
- Date: Wed, 4 Nov 2020 11:56:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 23:00:18.178636
- Title: BGGAN: Bokeh-Glass Generative Adversarial Network for Rendering
Realistic Bokeh
- Title(参考訳): bggan:bokeh-glass生成広告ネットワークによるリアルなbokehのレンダリング
- Authors: Ming Qian, Congyu Qiao, Jiamin Lin, Zhenyu Guo, Chenghua Li, Cong
Leng, Jian Cheng
- Abstract要約: 本稿では,複雑なハードウェアに依存しないボケ画像を生成するGlass-Netという新しいジェネレータを提案する。
実験の結果,この方法は高品質なボケ効果を示し,全スマートフォンチップセットで1.9秒で1,1024倍の1536$の画像を処理可能であることがわかった。
- 参考スコア(独自算出の注目度): 19.752904494597328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A photo captured with bokeh effect often means objects in focus are sharp
while the out-of-focus areas are all blurred. DSLR can easily render this kind
of effect naturally. However, due to the limitation of sensors, smartphones
cannot capture images with depth-of-field effects directly. In this paper, we
propose a novel generator called Glass-Net, which generates bokeh images not
relying on complex hardware. Meanwhile, the GAN-based method and perceptual
loss are combined for rendering a realistic bokeh effect in the stage of
finetuning the model. Moreover, Instance Normalization(IN) is reimplemented in
our network, which ensures our tflite model with IN can be accelerated on
smartphone GPU. Experiments show that our method is able to render a
high-quality bokeh effect and process one $1024 \times 1536$ pixel image in 1.9
seconds on all smartphone chipsets. This approach ranked First in AIM 2020
Rendering Realistic Bokeh Challenge Track 1 \& Track 2.
- Abstract(参考訳): ボケ効果で撮影される写真は、焦点領域がぼやけている間、焦点のある物体が鋭いことを意味することが多い。
DSLRはこのような効果を自然にレンダリングすることができる。
しかし、センサーの限界により、スマートフォンは深度効果の画像を直接キャプチャすることはできない。
本稿では,複雑なハードウェアに依存しないボケ画像を生成するGlass-Netという新しいジェネレータを提案する。
一方、モデルを微調整する段階で現実的なボケ効果をレンダリングするために、GANに基づく手法と知覚的損失を組み合わせる。
さらに、私たちのネットワークではインスタンス正規化(IN)が再実装されており、スマートフォンGPU上でのINによるtfliteモデルの高速化が保証されています。
実験の結果,我々の方法は高品質なボケ効果を示し,全スマートフォンチップセットで1.9秒で1,1024時間1536$ピクセル画像を処理することができた。
このアプローチはAIM 2020 Rendering Realistic Bokeh Challenge Track 1 \& Track 2にランクインした。
関連論文リスト
- Variable Aperture Bokeh Rendering via Customized Focal Plane Guidance [18.390543681127976]
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
論文 参考訳(メタデータ) (2024-10-18T12:04:23Z) - EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - BokehOrNot: Transforming Bokeh Effect with Image Transformer and Lens
Metadata Embedding [2.3784282912975345]
Bokeh効果(ボケエフェクト、英: Bokeh effect)は、広角レンズを備えたハイエンドカメラが生み出す、快適な視覚体験を提供する光学現象である。
本稿では,このモデルにレンズメタデータを埋め込み,アルファマスクを用いた損失計算手法を提案する。
以上の手法に基づいて,ブラープ・トゥ・シャープとシャープ・トゥ・ブルーのボケ効果を両立できるボケオルノットモデルを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:49:56Z) - Realistic Bokeh Effect Rendering on Mobile GPUs, Mobile AI & AIM 2022
challenge: Report [75.79829464552311]
この課題は、最新のスマートフォンモデルで実行できる効率的なエンドツーエンドのAIベースのレンダリングアプローチを開発することだった。
得られたモデルはKirin 9000のMali GPUで評価され、多くのディープラーニングオプティマスに対して優れた加速結果が得られた。
論文 参考訳(メタデータ) (2022-11-07T22:42:02Z) - Bokeh-Loss GAN: Multi-Stage Adversarial Training for Realistic
Edge-Aware Bokeh [3.8811606213997587]
我々は単分子ボケ合成の問題に取り組み、単一のオールインフォーカス画像から被写界画像の浅い深さを描画しようと試みる。
DSLRカメラとは異なり、この効果は移動体開口の物理的制約のため、移動体カメラでは直接キャプチャできない。
本稿では,単一の画像入力から現実的なモノクロボケをレンダリングできるネットワークベースのアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-25T20:57:07Z) - Multi-View Motion Synthesis via Applying Rotated Dual-Pixel Blur Kernels [48.063176079878055]
ポートレートモードで撮影された画像に適用される主な効果の1つは、合成浅層深度(DoF)である。
本研究は, ポートレートモードにおけるぼやけた合成手順の変更を導入することで, NIMAT効果のレンダリングの傾向を追究するものである。
我々の修正により、回転するぼやけたカーネルを適用して、単一の画像から多視点ボケを高品質に合成することができる。
論文 参考訳(メタデータ) (2021-11-15T15:23:55Z) - AIM 2020 Challenge on Rendering Realistic Bokeh [95.87775182820518]
本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューする。
目標は、大規模なESB! bokehデータセットを使用して、現実的な浅いフォーカステクニックを学ぶことだった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
論文 参考訳(メタデータ) (2020-11-10T09:15:38Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z) - Depth-aware Blending of Smoothed Images for Bokeh Effect Generation [10.790210744021072]
本稿では,画像から高品質なボケ効果を生成するために,エンドツーエンドのディープラーニングフレームワークを提案する。
ネットワークは軽量で、HD画像を0.03秒で処理できる。
このアプローチは、AIM 2019 Bokeh effect Challenge-Perceptual Trackで2位にランクインした。
論文 参考訳(メタデータ) (2020-05-28T18:11:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。