論文の概要: GANmouflage: 3D Object Nondetection with Texture Fields
- arxiv url: http://arxiv.org/abs/2201.07202v1
- Date: Tue, 18 Jan 2022 18:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 16:49:11.874234
- Title: GANmouflage: 3D Object Nondetection with Texture Fields
- Title(参考訳): ganmouflage:テクスチャフィールドを用いた3次元物体検出
- Authors: Rui Guo, Jasmine Collins, Oscar de Lima, Andrew Owens
- Abstract要約: シーン内の3Dオブジェクトをカモフラージュする手法を提案する。
物体の形状や視点の分布を考慮に入れれば、検出が困難になるようなテクスチャを推定する。
これらの課題をテクスチャフィールドと逆学習に基づくモデルで解決する。
- 参考スコア(独自算出の注目度): 15.002306579428815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method that learns to camouflage 3D objects within scenes. Given
an object's shape and a distribution of viewpoints from which it will be seen,
we estimate a texture that will make it difficult to detect. Successfully
solving this task requires a model that can accurately reproduce textures from
the scene, while simultaneously dealing with the highly conflicting constraints
imposed by each viewpoint. We address these challenges with a model based on
texture fields and adversarial learning. Our model learns to camouflage a
variety of object shapes from randomly sampled locations and viewpoints within
the input scene, and is the first to address the problem of hiding complex
object shapes. Using a human visual search study, we find that our estimated
textures conceal objects significantly better than previous methods. Project
site: https://rrrrrguo.github.io/ganmouflage/
- Abstract(参考訳): シーン内の3Dオブジェクトをカモフラージュする手法を提案する。
物体の形状や視点の分布を考慮に入れれば、検出が困難になるようなテクスチャを推定する。
この課題をうまく解決するには、各視点によって課される非常に矛盾する制約を同時に処理しながら、シーンからテクスチャを正確に再現できるモデルが必要である。
これらの課題をテクスチャフィールドと逆学習に基づくモデルで解決する。
本モデルは,入力シーン内のランダムなサンプル位置と視点から,様々な物体形状をカモフラージュすることを学び,複雑な物体形状を隠蔽する問題に最初に対処する。
人間のビジュアルサーチ研究により、推定されたテクスチャは、従来の方法よりもかなりよくオブジェクトを隠していることがわかった。
プロジェクトサイト: https://rrrrrguo.github.io/ganmouflage/
関連論文リスト
- Probing the 3D Awareness of Visual Foundation Models [56.68380136809413]
視覚基礎モデルの3次元認識を解析する。
凍結した特徴に対するタスク固有プローブとゼロショット推論手法を用いて実験を行う。
論文 参考訳(メタデータ) (2024-04-12T17:58:04Z) - Shape-biased Texture Agnostic Representations for Improved Textureless and Metallic Object Detection and 6D Pose Estimation [9.227450931458907]
テクスチャレスおよびメタリックオブジェクトは、CNNの視覚的手がかりやテクスチャバイアスが少ないため、依然として重要な課題である。
形状バイアスをCNNトレーニングに誘導する手法を提案する。
この手法は、シームレスなデータレンダリングと、一貫性のあるテクスチャ面のないトレーニングデータの結果を可能にする。
論文 参考訳(メタデータ) (2024-02-07T14:18:19Z) - BundleSDF: Neural 6-DoF Tracking and 3D Reconstruction of Unknown
Objects [89.2314092102403]
モノクロRGBDビデオシーケンスから未知物体の6-DoF追跡をリアルタイムに行う手法を提案する。
視覚的テクスチャがほとんど欠如している場合でも,任意の剛体オブジェクトに対して有効である。
論文 参考訳(メタデータ) (2023-03-24T17:13:49Z) - Source-free Depth for Object Pop-out [113.24407776545652]
現代の学習に基づく手法は、野生での推論による有望な深度マップを提供する。
本研究では,オブジェクトの3次元前の「ポップアウト」を用いて,オブジェクトセグメンテーションの深度推定モデルを適用する。
8つのデータセットに対する我々の実験は、性能と一般化性の両方の観点から、我々の方法の利点を一貫して示している。
論文 参考訳(メタデータ) (2022-12-10T21:57:11Z) - Holistic 3D Scene Understanding from a Single Image with Implicit
Representation [112.40630836979273]
単一の画像から全体的3Dシーン理解のための新しいパイプラインを提示する。
画像に基づく局所構造化暗黙ネットワークを提案し,物体形状推定を改善する。
また,新たな暗黙的なシーングラフニューラルネットワークを用いて3dオブジェクトのポーズとシーンレイアウトを洗練する。
論文 参考訳(メタデータ) (2021-03-11T02:52:46Z) - Deep Texture-Aware Features for Camouflaged Object Detection [69.84122372541506]
本稿では, テクスチャ認識モジュールを定式化し, 深層畳み込みニューラルネットワークにおけるテクスチャ認識の特徴を学習する。
我々は,キャモフラージュされた物体検出のためのベンチマークデータセット上で,定性的かつ定量的にネットワークを評価した。
論文 参考訳(メタデータ) (2021-02-05T04:38:32Z) - 3D Object Detection and Pose Estimation of Unseen Objects in Color
Images with Local Surface Embeddings [35.769234123059086]
本研究では, 画像中のオブジェクトの3次元ポーズを, テクスチャのないCADモデルでのみ検出し, 推定する手法を提案する。
我々のアプローチはディープラーニングと3D幾何を組み合わせており、CADモデルと入力画像とを一致させるために、局所的な3D幾何の埋め込みに依存している。
我々は,Mask-RCNNをクラスに依存しない方法で,再学習せずに新しい物体を検出できることを示す。
論文 参考訳(メタデータ) (2020-10-08T15:57:06Z) - Weakly Supervised Learning of Multi-Object 3D Scene Decompositions Using
Deep Shape Priors [69.02332607843569]
PriSMONetは、単一画像から多目的3Dシーンの分解と表現を学習するための新しいアプローチである。
リカレントエンコーダは、入力されたRGB画像から、各オブジェクトの3D形状、ポーズ、テクスチャの潜時表現を回帰する。
我々は,3次元シーンレイアウトの推測におけるモデルの精度を評価し,その生成能力を実証し,実画像への一般化を評価し,学習した表現の利点を指摘する。
論文 参考訳(メタデータ) (2020-10-08T14:49:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。