論文の概要: Cut-and-Paste Object Insertion by Enabling Deep Image Prior for
Reshading
- arxiv url: http://arxiv.org/abs/2010.05907v2
- Date: Tue, 13 Sep 2022 17:58:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-08 06:33:35.584205
- Title: Cut-and-Paste Object Insertion by Enabling Deep Image Prior for
Reshading
- Title(参考訳): リシェーディング前の深部画像によるカット・アンド・ペースト物体挿入
- Authors: Anand Bhattad and David A. Forsyth
- Abstract要約: 我々は、ある画像から別の画像にオブジェクトを挿入する方法を示し、ハードケースで現実的な結果を得る。
幾何学的および物理的モデルを必要としない挿入対象物のシェーディング不整合を補正する手法を提案する。
- 参考スコア(独自算出の注目度): 12.710258955529705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show how to insert an object from one image to another and get realistic
results in the hard case, where the shading of the inserted object clashes with
the shading of the scene. Rendering objects using an illumination model of the
scene doesn't work, because doing so requires a geometric and material model of
the object, which is hard to recover from a single image. In this paper, we
introduce a method that corrects shading inconsistencies of the inserted object
without requiring a geometric and physical model or an environment map. Our
method uses a deep image prior (DIP), trained to produce reshaded renderings of
inserted objects via consistent image decomposition inferential losses. The
resulting image from DIP aims to have (a) an albedo similar to the
cut-and-paste albedo, (b) a similar shading field to that of the target scene,
and (c) a shading that is consistent with the cut-and-paste surface normals.
The result is a simple procedure that produces convincing shading of the
inserted object. We show the efficacy of our method both qualitatively and
quantitatively for several objects with complex surface properties and also on
a dataset of spherical lampshades for quantitative evaluation. Our method
significantly outperforms an Image Harmonization (IH) baseline for all these
objects. They also outperform the cut-and-paste and IH baselines in a user
study with over 100 users.
- Abstract(参考訳): ある画像から別の画像にオブジェクトを挿入する方法を示し、挿入されたオブジェクトのシェーディングがシーンのシェーディングと衝突するハードケースで現実的な結果を得る。
シーンの照明モデルを使ってオブジェクトをレンダリングすることはうまくいきません。
本稿では,幾何学的および物理的モデルや環境マップを必要とすることなく,挿入対象のシェーディング不整合を補正する手法を提案する。
提案手法は深部画像先行処理(DIP)を用いて,一貫した画像分解推論損失による挿入対象の再構成レンダリングを生成する。
DIPから得られた画像は、実現を目指す
(a)カット・アンド・ペースト・アルベドに似たアルベド
(b)ターゲットシーンと同様の陰影場、及び
(c)カット・アンド・ペースト面の正常値と一致するシェーディング。
その結果、挿入されたオブジェクトの説得力のあるシェーディングを生成する単純な手順が得られた。
本手法は,複雑な表面特性を有する複数の物体に対して定量的かつ定量的に有効性を示すとともに,球面ランプシェードのデータセットを用いて定量的評価を行った。
本手法は,これらすべてのオブジェクトに対して,画像調和(IH)ベースラインを大幅に上回る。
また、100人以上のユーザを対象にしたユーザ調査で、カット&ペーストおよびihベースラインを上回っている。
関連論文リスト
- Floating No More: Object-Ground Reconstruction from a Single Image [33.34421517827975]
本研究では,3次元物体形状の再構成を目的とした新しい作業であるORG(Object Restruction with Ground)を紹介する。
提案手法では,2つのコンパクトなピクセルレベル表現を用いて,カメラ,オブジェクト,グラウンドの関係を表現している。
論文 参考訳(メタデータ) (2024-07-26T17:59:56Z) - Diff-DOPE: Differentiable Deep Object Pose Estimation [29.703385848843414]
Diff-DOPE, 画像入力を行う6-DoFポーズ精細機, オブジェクトの3次元テクスチャモデル, オブジェクトの初期ポーズを紹介する。
この方法は、画像とモデルの投影の間の視覚的エラーを最小限に抑えるために、オブジェクトのポーズを更新するために微分可能なレンダリングを使用する。
このシンプルで効果的なアイデアは、ポーズ推定データセットで最先端の結果を得ることができることを示す。
論文 参考訳(メタデータ) (2023-09-30T18:52:57Z) - ObjectStitch: Generative Object Compositing [43.206123360578665]
本研究では,条件付き拡散モデルを用いたオブジェクト合成のための自己教師型フレームワークを提案する。
我々のフレームワークは、手動ラベリングを必要とせず、生成したオブジェクトの視点、幾何学、色、影を変換することができる。
本手法は, 実世界の様々な画像に対するユーザ研究において, 合成結果画像の写実性と忠実性の両方において, 関連ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2022-12-02T02:15:13Z) - Disentangled Implicit Shape and Pose Learning for Scalable 6D Pose
Estimation [44.8872454995923]
単一オートエンコーダを用いた複数オブジェクトの合成データに対する自己教師付き学習により,スケーラブルな6次元ポーズ推定のための新しい手法を提案する。
提案手法は,T-LESS と NOCS REAL275 という実データを持つ2つのマルチオブジェクトベンチマークで検証し,ポーズ推定精度と一般化の点で既存の RGB 法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-27T01:55:30Z) - Sparse Pose Trajectory Completion [87.31270669154452]
サンプルの少ないビューにのみオブジェクトが出現するデータセットを使用しても学習する方法を提案する。
これはクロスモーダルポーズ軌道伝達機構によって実現される。
この手法はPix3DおよびShapeNetデータセット上で評価される。
論文 参考訳(メタデータ) (2021-05-01T00:07:21Z) - Holistic 3D Scene Understanding from a Single Image with Implicit
Representation [112.40630836979273]
単一の画像から全体的3Dシーン理解のための新しいパイプラインを提示する。
画像に基づく局所構造化暗黙ネットワークを提案し,物体形状推定を改善する。
また,新たな暗黙的なシーングラフニューラルネットワークを用いて3dオブジェクトのポーズとシーンレイアウトを洗練する。
論文 参考訳(メタデータ) (2021-03-11T02:52:46Z) - ShaRF: Shape-conditioned Radiance Fields from a Single View [54.39347002226309]
本稿では,単一の画像のみのオブジェクトの神経シーン表現を推定する手法を提案する。
この手法の核心は,対象物の幾何学的足場の推定である。
合成画像と実画像の両方において,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-02-17T16:40:28Z) - Continuous Surface Embeddings [76.86259029442624]
我々は、変形可能な対象カテゴリーにおける密接な対応を学習し、表現するタスクに焦点をあてる。
本稿では,高密度対応の新たな学習可能な画像ベース表現を提案する。
提案手法は,人間の身近なポーズ推定のための最先端手法と同等以上の性能を示すことを示す。
論文 参考訳(メタデータ) (2020-11-24T22:52:15Z) - Category Level Object Pose Estimation via Neural Analysis-by-Synthesis [64.14028598360741]
本稿では、勾配に基づくフィッティング法とパラメトリックニューラルネットワーク合成モジュールを組み合わせる。
画像合成ネットワークは、ポーズ設定空間を効率的に分散するように設計されている。
本研究では,2次元画像のみから高精度に物体の向きを復元できることを実験的に示す。
論文 参考訳(メタデータ) (2020-08-18T20:30:47Z) - Leveraging Photometric Consistency over Time for Sparsely Supervised
Hand-Object Reconstruction [118.21363599332493]
本稿では,ビデオ中のフレームの粗いサブセットに対してのみアノテーションが利用できる場合に,時間とともに光度整合性を活用する手法を提案する。
本モデルでは,ポーズを推定することにより,手や物体を3Dで共同で再構成するカラーイメージをエンドツーエンドに訓練する。
提案手法は,3次元手動画像再構成の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2020-04-28T12:03:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。