論文の概要: Lens Distortion Encoding System Version 1.0
- arxiv url: http://arxiv.org/abs/2411.16946v2
- Date: Fri, 13 Dec 2024 03:42:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-16 14:59:59.655955
- Title: Lens Distortion Encoding System Version 1.0
- Title(参考訳): Lens Distortion Encoding System Version 1.0
- Authors: Jakub Maksymilian Fober,
- Abstract要約: LDESは、あるビューから別のビューへの直接変換に使用される単一の高品質でアニマタブルなSTMapを生成する。
View Mapsは自由に組み合わせたり、変換したり、アニメーションしたりできるので、アナモルフィックから球面歪みへのスムーズなシフトのような効果もできる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Lens Distortion Encoding System (LDES) allows for a distortion-accurate workflow, with a seamless interchange of high quality motion picture images regardless of the lens source. This system is similar in a concept to the Academy Color Encoding System (ACES), but for distortion. Presented solution is fully compatible with existing software/plug-in tools for STMapping found in popular production software like Adobe After Effects or DaVinci Resolve. LDES utilizes common distortion space and produces single high-quality, animatable STMap used for direct transformation of one view to another, neglecting the need of lens-swapping for each shoot. The LDES profile of a lens consist of two elements; View Map texture, and Footage Map texture, each labeled with the FOV value. Direct distortion mapping is produced by sampling of the Footage Map through the View Map. The result; animatable mapping texture, is then used to sample the footage to a desired distortion. While the Footage Map is specific to a footage, View Maps can be freely combined/transitioned and animated, allowing for effects like smooth shift from anamorphic to spherical distortion, previously impossible to achieve in practice. Presented LDES Version 1.0 uses common 32-bit STMap format for encoding, supported by most compositing software, directly or via plug-ins. The difference between standard STMap workflow and LDES is that it encodes absolute pixel position in the spherical image model. The main benefit of this approach is the ability to achieve a similar look of a highly expensive lens using some less expensive equipment in terms of distortion. It also provides greater artistic control and never seen before manipulation of footage.
- Abstract(参考訳): Lens Distortion Encoding System (LDES) は、レンズソースに関係なく、高品質な動画画像のシームレスな相互交換が可能な歪み精度のワークフローを実現する。
このシステムは、Academy Color Encoding System (ACES) の概念と似ているが、歪みがある。
提案されたソリューションは、Adobe After EffectsやDaVinci Resolveのような一般的なプロダクションソフトウェアで見られるSTMapping用の既存のソフトウェア/プラグインツールと完全に互換性がある。
LDESは共通の歪み空間を利用し、あるビューを別のビューへ直接変換するために使用される単一の高品質のアニマタブルSTMapを生成し、それぞれの撮影にレンズスワッピングの必要性を無視する。
レンズのLDESプロファイルは、ビューマップテクスチャとフットマップテクスチャの2つの要素で構成され、それぞれFOV値がラベル付けられている。
直接歪みマッピングは、ビューマップを通してフットージマップをサンプリングすることで生成される。
その結果、アニマタブルなマッピングテクスチャが、望まれる歪みに映像をサンプリングするために使われる。
Footage Mapはビデオに特有だが、ビューマップを自由に組み合わせたり、翻訳したり、アニメーションしたりすることで、これまでは実現できなかった、アナモルフィックから球面歪みへのスムーズなシフトのような効果を実現できる。
LDESバージョン1.0では、一般的な32ビットのSTMapフォーマットを使用してエンコードし、ほとんどのコンポジションソフトウェアが直接またはプラグイン経由でサポートしている。
標準的なSTMapワークフローとLDESの違いは、球面画像モデルにおける絶対画素位置を符号化することである。
このアプローチの主な利点は、歪みの点で安価な機器を使って、非常に高価なレンズの類似した外観を達成することができることである。
また、より芸術的なコントロールも提供し、映像を操作する前に見ることもない。
関連論文リスト
- FramePainter: Endowing Interactive Image Editing with Video Diffusion Priors [64.54220123913154]
本稿では,画像から映像への効率のよい生成問題としてFramePainterを紹介した。
軽量のスパース制御エンコーダのみを使用して編集信号を注入する。
従来の最先端の手法をはるかに少ないトレーニングデータで上回ります。
論文 参考訳(メタデータ) (2025-01-14T16:09:16Z) - EVER: Exact Volumetric Ellipsoid Rendering for Real-time View Synthesis [72.53316783628803]
実時間微分可能な発光専用ボリュームレンダリング法であるExact Volumetric Ellipsoid Rendering (EVER)を提案する。
3D Gaussian Splatting(3DGS)による最近の手法とは異なり、プリミティブベースの表現は正確なボリュームレンダリングを可能にする。
本手法は,3DGSよりもブレンディング問題の方が精度が高く,ビューレンダリングの追従作業も容易であることを示す。
論文 参考訳(メタデータ) (2024-10-02T17:59:09Z) - Video Inpainting Localization with Contrastive Learning [2.1210527985139227]
ディープ・インペイントは通常、偽ビデオを作成するための重要なオブジェクトを削除する悪質な操作として使用される。
コントロアシブラーニング(ViLocal)を用いた簡易かつ効果的な映像塗装手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T15:15:54Z) - Learning Naturally Aggregated Appearance for Efficient 3D Editing [90.57414218888536]
カラーフィールドは、標準画像(canonical image)とも呼ばれる、明示的な2次元の外観アグリゲーションとして学習する。
テクスチャクエリのために3Dポイントを2Dピクセルにマッピングする投影場を標準画像に補完する。
提案手法は,既存のNeRFベースの編集手法に比べて,編集1回あたり20倍高速であることを示す。
論文 参考訳(メタデータ) (2023-12-11T18:59:31Z) - High-Quality 3D Face Reconstruction with Affine Convolutional Networks [21.761247036523606]
3次元顔再構成では、入力画像(例えば顔)と標準/UV出力との間の空間的ずれが特徴符号化・復号処理を非常に困難にする。
我々は、空間的に非対応な入力および出力画像を扱うCNNベースのアプローチを可能にする新しいネットワークアーキテクチャ、すなわちAffine Convolution Networksを提案する。
提案手法はパラメトリックフリーであり,512×512ピクセルの解像度で高品質な紫外線マップを生成することができる。
論文 参考訳(メタデータ) (2023-10-22T09:04:43Z) - Hashing Neural Video Decomposition with Multiplicative Residuals in
Space-Time [14.015909536844337]
本稿では,時間的に異なる照明効果を持つ映像の階層的編集を容易にする映像分解手法を提案する。
本手法は,座標ハッシュを用いて1フレームあたり25秒で1080pビデオの層ベースニューラル表現を効率よく学習する。
本稿では,映像編集の一貫性を客観的に評価するための評価指標を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:36:14Z) - CoDeF: Content Deformation Fields for Temporally Consistent Video Processing [86.25225894085105]
CoDeFは、標準コンテンツフィールドと時間変形フィールドからなる新しいタイプのビデオ表現である。
実験により,CoDeFは,映像から映像への変換とキーポイント検出をキーポイントトラッキングに,トレーニングなしで持ち上げることができることを示した。
論文 参考訳(メタデータ) (2023-08-15T17:59:56Z) - Edit-A-Video: Single Video Editing with Object-Aware Consistency [49.43316939996227]
本稿では,事前訓練されたTTIモデルと単一のテキスト,ビデオ>ペアのみを付与したビデオ編集フレームワークを提案する。
本フレームワークは,(1)時間モジュールチューニングを付加して2Dモデルを3Dモデルに膨らませること,(2)原動画をノイズに反転させ,対象のテキストプロンプトとアテンションマップインジェクションで編集すること,の2段階からなる。
各種のテキスト・ビデオに対して広範な実験結果を示し,背景整合性,テキストアライメント,ビデオ編集品質の点で,ベースラインに比べて提案手法の優位性を示す。
論文 参考訳(メタデータ) (2023-03-14T14:35:59Z) - Layered Neural Atlases for Consistent Video Editing [37.69447642502351]
本稿では,入力映像を層状2次元アトラスに分解する手法を提案する。
ビデオの各画素について,各アトラスの対応する2次元座標を推定する。
我々は、アトラスを解釈可能で意味論的に設計し、アトラス領域での簡単かつ直感的な編集を容易にする。
論文 参考訳(メタデータ) (2021-09-23T14:58:59Z) - Deep Contrastive Patch-Based Subspace Learning for Camera Image Signal
Processing [5.678834480723395]
我々は、カメラISPを改良し、異質なアーティファクトに対して堅牢なパッチベースのローカルサブスペースディープニューラルネットワークを提案する。
Patch Subspace Learning Autoencoder (PSL-AE) と呼ぶ。
PSL-AEは、コントラスト学習によって、異なるアーティファクトタイプや歪みレベルを持つ、ノイズの多い第2クリーンイメージペアから抽出されたパッチを符号化する。
論文 参考訳(メタデータ) (2021-04-01T04:40:22Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。