論文の概要: A Learned Compact and Editable Light Field Representation
- arxiv url: http://arxiv.org/abs/2103.11314v1
- Date: Sun, 21 Mar 2021 06:16:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:33:58.542599
- Title: A Learned Compact and Editable Light Field Representation
- Title(参考訳): コンパクトで編集可能な光場表現法
- Authors: Menghan Xia, Jose Echevarria, Minshan Xie and Tien-Tsin Wong
- Abstract要約: 本稿では,視覚チャネルの集合からなる,新規なコンパクトかつ編集可能な光場表現を提案する。
この表現のビジュアルチャネルは、既存の2d画像編集ツールを使って編集できる。
我々は,この表現を,表現を学習するエンコーダと光場を再構成するデコーダからなるオートエンコーダフレームワークを用いて学習することを提案する。
- 参考スコア(独自算出の注目度): 18.93526645526553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light fields are 4D scene representation typically structured as arrays of
views, or several directional samples per pixel in a single view. This highly
correlated structure is not very efficient to transmit and manipulate
(especially for editing), though. To tackle these problems, we present a novel
compact and editable light field representation, consisting of a set of visual
channels (i.e. the central RGB view) and a complementary meta channel that
encodes the residual geometric and appearance information. The visual channels
in this representation can be edited using existing 2D image editing tools,
before accurately reconstructing the whole edited light field back. We propose
to learn this representation via an autoencoder framework, consisting of an
encoder for learning the representation, and a decoder for reconstructing the
light field. To handle the challenging occlusions and propagation of edits, we
specifically designed an editing-aware decoding network and its associated
training strategy, so that the edits to the visual channels can be consistently
propagated to the whole light field upon reconstruction.Experimental results
show that our proposed method outperforms related existing methods in
reconstruction accuracy, and achieves visually pleasant performance in editing
propagation.
- Abstract(参考訳): ライトフィールドは4dのシーン表現で、通常はビューの配列として構成されるか、1つのビューでピクセルごとに複数の方向のサンプルとして構成される。
しかし、この高相関構造は(特に編集のために)伝達や操作にあまり効率的ではない。
これらの問題に対処するため,一組の視覚チャネルからなる,コンパクトで編集可能な光場表現を提案する。
中央のRGBビュー)と、残余の幾何学的および外観情報を符号化する相補的なメタチャネル。
この表現の視覚チャネルは、既存の2D画像編集ツールを使用して編集し、編集された光フィールド全体を正確に再構築することができる。
我々は,この表現を,表現を学習するエンコーダと光場を再構成するデコーダからなるオートエンコーダフレームワークを用いて学習することを提案する。
編集の難易度や伝達に対処すべく,編集・認識型デコードネットワークとそれに関連するトレーニング戦略を具体的に設計し,リコンストラクション時に視覚チャネルへの編集を一貫して光野全体に伝播させるようにした。実験の結果,本手法は既存の手法の復元精度を上回っており,編集時の視覚的に快適な性能を実現する。
関連論文リスト
- SGEdit: Bridging LLM with Text2Image Generative Model for Scene Graph-based Image Editing [42.23117201457898]
本稿では,大規模言語モデル(LLM)とText2生成モデルを統合し,グラフベースの画像編集を行う新しいフレームワークを提案する。
本フレームワークは,編集精度とシーン美学の観点から,既存の画像編集手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-10-15T17:40:48Z) - Editable Image Elements for Controllable Synthesis [79.58148778509769]
拡散モデルを用いて入力画像の空間的編集を促進する画像表現を提案する。
オブジェクトのリサイズ,再配置,ドラッグング,デオクルージョン,除去,変動,画像合成など,画像編集作業における表現の有効性を示す。
論文 参考訳(メタデータ) (2024-04-24T17:59:11Z) - DATENeRF: Depth-Aware Text-based Editing of NeRFs [49.08848777124736]
我々は、NeRFシーンの深度情報を利用して異なる画像に2D編集を分散する塗装手法を提案する。
以上の結果から,本手法は既存のテキスト駆動型NeRFシーン編集手法よりも,より一貫性があり,ライフライクで,詳細な編集が可能であることが判明した。
論文 参考訳(メタデータ) (2024-04-06T06:48:16Z) - Customize your NeRF: Adaptive Source Driven 3D Scene Editing via
Local-Global Iterative Training [61.984277261016146]
テキスト記述や参照画像を編集プロンプトとして統合するCustomNeRFモデルを提案する。
最初の課題に取り組むために,前景領域編集とフルイメージ編集を交互に行うローカル・グローバル反復編集(LGIE)トレーニング手法を提案する。
第2の課題として、生成モデル内のクラス事前を利用して、一貫性の問題を緩和するクラス誘導正規化を設計する。
論文 参考訳(メタデータ) (2023-12-04T06:25:06Z) - Object-aware Inversion and Reassembly for Image Editing [61.19822563737121]
オブジェクトレベルのきめ細かい編集を可能にするために,オブジェクト認識型インバージョンと再アセンブリ(OIR)を提案する。
画像の編集時に各編集ペアに対して最適な反転ステップを見つけるために,検索基準を用いる。
本手法は,オブジェクトの形状,色,材料,カテゴリなどの編集において,特に多目的編集シナリオにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-10-18T17:59:02Z) - LEDITS: Real Image Editing with DDPM Inversion and Semantic Guidance [0.0]
LEDITSはリアルタイム編集のための軽量なアプローチであり、Edit Friendly DDPMインバージョン技術とSemantic Guidanceを統合している。
このアプローチは、微妙で広範囲な編集や構成やスタイルの変更といった多彩な編集を実現すると同時に、アーキテクチャの最適化や拡張も必要としない。
論文 参考訳(メタデータ) (2023-07-02T09:11:09Z) - SINE: Semantic-driven Image-based NeRF Editing with Prior-guided Editing
Field [37.8162035179377]
我々は,1つの画像でニューラルラディアンスフィールドを編集できる,新しい意味駆動型NeRF編集手法を提案する。
この目的を達成するために,3次元空間における微細な幾何学的・テクスチャ的編集を符号化する事前誘導編集場を提案する。
本手法は,1枚の編集画像のみを用いた写真リアルな3D編集を実現し,実世界の3Dシーンにおけるセマンティックな編集の限界を押し上げる。
論文 参考訳(メタデータ) (2023-03-23T13:58:11Z) - Shape-aware Text-driven Layered Video Editing [39.56765973770167]
形状変化に対処する形状認識型テキスト駆動ビデオ編集手法を提案する。
まず、入力と編集されたすべてのフレーム間の変形場を伝搬する。
次に、事前学習したテキスト条件拡散モデルを用いて、形状歪みを補正し、目に見えない領域を完成させる。
論文 参考訳(メタデータ) (2023-01-30T18:41:58Z) - SpaceEdit: Learning a Unified Editing Space for Open-Domain Image
Editing [94.31103255204933]
オープンドメイン画像の色やトーン調整に着目したオープンドメイン画像編集のための統一モデルを提案する。
我々のモデルは、よりセマンティックで直感的で操作が容易な統合編集空間を学習する。
画像ペアを学習した編集空間の潜在コードに変換することで、下流編集タスクに我々のモデルを活用できることが示される。
論文 参考訳(メタデータ) (2021-11-30T23:53:32Z) - EditGAN: High-Precision Semantic Image Editing [120.49401527771067]
EditGANは高品質で高精度なセマンティック画像編集のための新しい手法である。
EditGANは前例のない細部と自由度で画像を操作可能であることを示す。
また、複数の編集を組み合わせることも簡単で、EditGANのトレーニングデータ以外の編集も可能になります。
論文 参考訳(メタデータ) (2021-11-04T22:36:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。