論文の概要: Computational Long Exposure Mobile Photography
- arxiv url: http://arxiv.org/abs/2308.01379v1
- Date: Wed, 2 Aug 2023 18:36:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 16:06:29.514717
- Title: Computational Long Exposure Mobile Photography
- Title(参考訳): 計算的長期露光移動写真
- Authors: Eric Tabellion, Nikhil Karnad, Noa Glaser, Ben Weiss, David E. Jacobs,
Yael Pritch
- Abstract要約: ハンドヘルドスマートフォンカメラアプリで動作する計算バースト撮影システムについて述べる。
提案手法はまず,健常者の検出とセグメンテーションを行う。
我々は、露出不足のバーストを捕捉し、シーンやカメラの動き速度に関わらず、制御された長さのぼやけた軌跡を生成する入力フレームのサブセットを選択する。
- 参考スコア(独自算出の注目度): 1.5553309483771411
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long exposure photography produces stunning imagery, representing moving
elements in a scene with motion-blur. It is generally employed in two
modalities, producing either a foreground or a background blur effect.
Foreground blur images are traditionally captured on a tripod-mounted camera
and portray blurred moving foreground elements, such as silky water or light
trails, over a perfectly sharp background landscape. Background blur images,
also called panning photography, are captured while the camera is tracking a
moving subject, to produce an image of a sharp subject over a background
blurred by relative motion. Both techniques are notoriously challenging and
require additional equipment and advanced skills. In this paper, we describe a
computational burst photography system that operates in a hand-held smartphone
camera app, and achieves these effects fully automatically, at the tap of the
shutter button. Our approach first detects and segments the salient subject. We
track the scene motion over multiple frames and align the images in order to
preserve desired sharpness and to produce aesthetically pleasing motion
streaks. We capture an under-exposed burst and select the subset of input
frames that will produce blur trails of controlled length, regardless of scene
or camera motion velocity. We predict inter-frame motion and synthesize
motion-blur to fill the temporal gaps between the input frames. Finally, we
composite the blurred image with the sharp regular exposure to protect the
sharpness of faces or areas of the scene that are barely moving, and produce a
final high resolution and high dynamic range (HDR) photograph. Our system
democratizes a capability previously reserved to professionals, and makes this
creative style accessible to most casual photographers.
More information and supplementary material can be found on our project
webpage: https://motion-mode.github.io/
- Abstract(参考訳): 長時間露光写真は、モーションブルーのシーンで動く要素を表現する素晴らしい画像を生成する。
一般的には2つのモダリティで用いられ、前景または背景ぼけ効果を生じる。
前景のぼやけた画像は伝統的に三脚カメラで撮影され、完全に鮮明な背景に絹の水や光の道のようなぼやけた前景の要素が描かれている。
背景のぼやけた画像(パニング写真とも呼ばれる)は、カメラが被写体を追跡している間に撮影され、相対的な動きによってぼやけた背景のシャープな被写体の画像を生成する。
どちらの技術も難易度が高く、追加の装備と高度な技術を必要とする。
本稿では,スマートフォンのカメラアプリで動作し,シャッターボタンのタップ時に自動的にその効果をフルに発揮する計算バースト撮影システムについて述べる。
提案手法はまず,健常者の検出とセグメンテーションを行う。
複数のフレームにまたがってシーンの動きを追跡し、所望のシャープさを保ち、審美的に心地よい動きを創り出す。
我々は、露出不足のバーストを捕捉し、シーンやカメラの動き速度に関わらず、制御された長さのぼやけた軌跡を生成する入力フレームのサブセットを選択する。
フレーム間の動きを予測し、入力フレーム間の時間的ギャップを埋めるためにモーションブラルを合成する。
最後に、ぼやけた画像とシャープな定期露光を合成し、ほとんど動かないシーンの顔や領域のシャープさを保護し、最終的な高解像度かつ高ダイナミックレンジ(HDR)写真を生成する。
我々のシステムは、以前プロに予約されていた能力を民主化し、この創造的なスタイルをほとんどのカジュアルな写真家が利用できるようにする。
詳しい情報と追加資料は、プロジェクトのwebページ(https://motion-mode.github.io/)で確認できます。
関連論文リスト
- Motion Blur Decomposition with Cross-shutter Guidance [33.72961622720793]
動きのぼかしは、十分に明るい画像のためにより多くの光子を集めるために露光時間を延ばさなければならない、照明が不十分な人工物である。
近年の研究では、ぼやけた画像を空間的・時間的コヒーレンスのある複数のシャープな画像に分解することを目的としている。
本稿では, ローリングシャッター画像におけるスキャニングラインの遅延の順序を利用して, 単一のぼやけた画像の運動分解を強固にする手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T13:55:40Z) - ExBluRF: Efficient Radiance Fields for Extreme Motion Blurred Images [58.24910105459957]
極端運動ぼかし画像の新しいビュー合成法であるExBluRFを提案する。
提案手法は,6-DOFカメラトラジェクトリをベースとしたモーションブラー定式化と,ボクセルをベースとした放射場からなる。
既存の作業と比較して、トレーニング時間とGPUメモリ使用量の10倍の順序で、よりシャープな3Dシーンを復元する。
論文 参考訳(メタデータ) (2023-09-16T11:17:25Z) - 3D Moments from Near-Duplicate Photos [67.15199743223332]
3D Momentsは、新しい計算写真効果だ。
1枚目から2枚目までのシーンの動きを円滑に補間するビデオを作成する。
本システムは,モーションパララックスとシーンダイナミックスを併用したフォトリアリスティックな時空ビデオを生成する。
論文 参考訳(メタデータ) (2022-05-12T17:56:18Z) - Learning Spatially Varying Pixel Exposures for Motion Deblurring [49.07867902677453]
本研究では,空間的に異なる画素の露光を利用して動きを損なう新しい手法を提案する。
我々の研究は、未来のコンピュータイメージングにおいて、焦点面センサー-プロセッサが果たすべき役割を説明している。
論文 参考訳(メタデータ) (2022-04-14T23:41:49Z) - Multi-View Motion Synthesis via Applying Rotated Dual-Pixel Blur Kernels [48.063176079878055]
ポートレートモードで撮影された画像に適用される主な効果の1つは、合成浅層深度(DoF)である。
本研究は, ポートレートモードにおけるぼやけた合成手順の変更を導入することで, NIMAT効果のレンダリングの傾向を追究するものである。
我々の修正により、回転するぼやけたカーネルを適用して、単一の画像から多視点ボケを高品質に合成することができる。
論文 参考訳(メタデータ) (2021-11-15T15:23:55Z) - A Method For Adding Motion-Blur on Arbitrary Objects By using
Auto-Segmentation and Color Compensation Techniques [6.982738885923204]
本稿では,物体ごとの運動のぼかしを付加する統合フレームワークを提案する。
この方法では、複数のフレームを動きのぼやけなく捕捉し、対象物体に動きのぼやけを生じさせるように蓄積する。
論文 参考訳(メタデータ) (2021-09-22T05:52:27Z) - Exposure Trajectory Recovery from Motion Blur [90.75092808213371]
ダイナミックシーンにおける動きのぼやけは重要な研究テーマである。
本稿では、ぼやけた画像に含まれる動き情報を表す露光軌跡を定義する。
静止シャープ画像の画素方向の変位をモデル化するための新しい動きオフセット推定フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-06T05:23:33Z) - Rendering Natural Camera Bokeh Effect with Deep Learning [95.86933125733673]
ボケ(Bokeh)は、写真に焦点をあてる重要な芸術効果である。
モバイルカメラは、光学の直径が非常に小さいため、被写界深度が浅い写真を作ることができない。
本稿では,デジタル一眼レフカメラで撮影された写真から直接,現実的な浅層焦点技術を学ぶことを提案する。
論文 参考訳(メタデータ) (2020-06-10T07:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。