論文の概要: AIM 2020 Challenge on Rendering Realistic Bokeh
- arxiv url: http://arxiv.org/abs/2011.04988v1
- Date: Tue, 10 Nov 2020 09:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 08:08:04.241171
- Title: AIM 2020 Challenge on Rendering Realistic Bokeh
- Title(参考訳): リアルなボケをレンダリングするaim 2020チャレンジ
- Authors: Andrey Ignatov, Radu Timofte, Ming Qian, Congyu Qiao, Jiamin Lin,
Zhenyu Guo, Chenghua Li, Cong Leng, Jian Cheng, Juewen Peng, Xianrui Luo, Ke
Xian, Zijin Wu, Zhiguo Cao, Densen Puthussery, Jiji C V, Hrishikesh P S,
Melvin Kuriakose, Saikat Dutta, Sourya Dipta Das, Nisarg A. Shah, Kuldeep
Purohit, Praveen Kandula, Maitreya Suin, A. N. Rajagopalan, Saagara M B,
Minnu A L, Sanjana A R, Praseeda S, Ge Wu, Xueqin Chen, Tengyao Wang, Max
Zheng, Hulk Wong, Jay Zou
- Abstract要約: 本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューする。
目標は、大規模なESB! bokehデータセットを使用して、現実的な浅いフォーカステクニックを学ぶことだった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
- 参考スコア(独自算出の注目度): 95.87775182820518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper reviews the second AIM realistic bokeh effect rendering challenge
and provides the description of the proposed solutions and results. The
participating teams were solving a real-world bokeh simulation problem, where
the goal was to learn a realistic shallow focus technique using a large-scale
EBB! bokeh dataset consisting of 5K shallow / wide depth-of-field image pairs
captured using the Canon 7D DSLR camera. The participants had to render bokeh
effect based on only one single frame without any additional data from other
cameras or sensors. The target metric used in this challenge combined the
runtime and the perceptual quality of the solutions measured in the user study.
To ensure the efficiency of the submitted models, we measured their runtime on
standard desktop CPUs as well as were running the models on smartphone GPUs.
The proposed solutions significantly improved the baseline results, defining
the state-of-the-art for practical bokeh effect rendering problem.
- Abstract(参考訳): 本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューし,提案手法と結果について述べる。
そこでは、Canon 7D DSLRカメラでキャプチャした5Kの浅度/広深度の画像ペアからなる大規模なESB!ボケデータセットを使用して、現実的な浅度フォーカス技術を学ぶことが目標だった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
この課題で使用されるターゲットメトリックは、実行時とユーザスタディで測定されたソリューションの知覚品質を組み合わせたものだ。
提案したモデルの効率を確保するため,標準デスクトップCPU上でのランタイムの測定と,スマートフォンGPU上でのモデル実行を行った。
提案手法は, 実効ボケ効果レンダリング問題に対する最先端技術を定義することによって, ベースライン結果を大幅に改善した。
関連論文リスト
- Variable Aperture Bokeh Rendering via Customized Focal Plane Guidance [18.390543681127976]
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
提案手法は,主流のボケモデルよりもはるかに軽量な4.4Mパラメータで,最先端の競合性能を実現している。
論文 参考訳(メタデータ) (2024-10-18T12:04:23Z) - Realistic Bokeh Effect Rendering on Mobile GPUs, Mobile AI & AIM 2022
challenge: Report [75.79829464552311]
この課題は、最新のスマートフォンモデルで実行できる効率的なエンドツーエンドのAIベースのレンダリングアプローチを開発することだった。
得られたモデルはKirin 9000のMali GPUで評価され、多くのディープラーニングオプティマスに対して優れた加速結果が得られた。
論文 参考訳(メタデータ) (2022-11-07T22:42:02Z) - Efficient Single-Image Depth Estimation on Mobile Devices, Mobile AI &
AIM 2022 Challenge: Report [108.88637766066759]
ディープラーニングベースの単一画像深度推定ソリューションは、IoTプラットフォームとスマートフォン上でリアルタイムのパフォーマンスを示すことができる。
このチャレンジで開発されたモデルは、AndroidやLinuxベースのモバイルデバイスとも互換性がある。
論文 参考訳(メタデータ) (2022-11-07T22:20:07Z) - Natural & Adversarial Bokeh Rendering via Circle-of-Confusion Predictive
Network [25.319666328268116]
Bokeh効果は被写界深度が浅い現象で、写真では焦点がぼやけている。
我々は、全く新しい問題、すなわち自然と敵対的なボケのレンダリングについて研究する。
本稿では,データ駆動方式と物理認識方式のそれぞれの利点を生かして,ハイブリッドな代替案を提案する。
論文 参考訳(メタデータ) (2021-11-25T09:08:45Z) - Single image deep defocus estimation and its applications [82.93345261434943]
画像パッチを20レベルの曖昧さの1つに分類するために、ディープニューラルネットワークをトレーニングします。
トレーニングされたモデルは、反復重み付きガイドフィルタを適用して改善するパッチのぼかしを決定するために使用される。
その結果、デフォーカスマップは各ピクセルのぼやけた度合いの情報を運ぶ。
論文 参考訳(メタデータ) (2021-07-30T06:18:16Z) - AIM 2020 Challenge on Learned Image Signal Processing Pipeline [150.55468168329926]
本稿では,第2回AIM学習ISPチャレンジをレビューし,提案したソリューションと結果について解説する。
参加チームは現実世界のRAW-to-RGBマッピング問題を解決し、Huawei P20デバイスが捉えた品質の低いRAW画像を、Canon 5D DSLRカメラで取得したのと同じ写真にマッピングすることを目的としていた。
提案手法はベースライン結果を大幅に改善し,実用的な画像信号処理パイプラインモデリングのための最先端技術を定義した。
論文 参考訳(メタデータ) (2020-11-10T09:25:47Z) - BGGAN: Bokeh-Glass Generative Adversarial Network for Rendering
Realistic Bokeh [19.752904494597328]
本稿では,複雑なハードウェアに依存しないボケ画像を生成するGlass-Netという新しいジェネレータを提案する。
実験の結果,この方法は高品質なボケ効果を示し,全スマートフォンチップセットで1.9秒で1,1024倍の1536$の画像を処理可能であることがわかった。
論文 参考訳(メタデータ) (2020-11-04T11:56:34Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。