論文の概要: Blocks World Revisited: The Effect of Self-Occlusion on Classification
by Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2102.12911v1
- Date: Thu, 25 Feb 2021 15:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-27 08:35:40.398916
- Title: Blocks World Revisited: The Effect of Self-Occlusion on Classification
by Convolutional Neural Networks
- Title(参考訳): 世界再訪ブロック:畳み込みニューラルネットワークによる自己閉塞が分類に及ぼす影響
- Authors: Markus D. Solbach, John K. Tsotsos
- Abstract要約: TEOS(The Effect of Self-Occlusion)は、3Dオブジェクトの幾何学的形状に焦点を当てた3Dブロック世界データセットである。
現実世界では、3Dオブジェクトの自己閉塞は、ディープラーニングアプローチにとって重要な課題である。
対象物,マスク,被写体,カメラの位置,向き,自己閉塞量,および各対象物のCADモデルについて一様にサンプリングした738のビューを提供する。
- 参考スコア(独自算出の注目度): 17.58979205709865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the recent successes in computer vision, there remain new avenues to
explore. In this work, we propose a new dataset to investigate the effect of
self-occlusion on deep neural networks. With TEOS (The Effect of
Self-Occlusion), we propose a 3D blocks world dataset that focuses on the
geometric shape of 3D objects and their omnipresent challenge of
self-occlusion. We designed TEOS to investigate the role of self-occlusion in
the context of object classification. Even though remarkable progress has been
seen in object classification, self-occlusion is a challenge. In the
real-world, self-occlusion of 3D objects still presents significant challenges
for deep learning approaches. However, humans deal with this by deploying
complex strategies, for instance, by changing the viewpoint or manipulating the
scene to gather necessary information. With TEOS, we present a dataset of two
difficulty levels (L1 and L2 ), containing 36 and 12 objects, respectively. We
provide 738 uniformly sampled views of each object, their mask, object and
camera position, orientation, amount of self-occlusion, as well as the CAD
model of each object. We present baseline evaluations with five well-known
classification deep neural networks and show that TEOS poses a significant
challenge for all of them. The dataset, as well as the pre-trained models, are
made publicly available for the scientific community under
https://nvision2.data.eecs.yorku.ca/TEOS.
- Abstract(参考訳): コンピュータビジョンの最近の成功にもかかわらず、探索する新しい道は残っています。
本研究では,深層ニューラルネットワークに対する自己閉塞の影響を調べるための新たなデータセットを提案する。
TEOS(The Effect of Self-Occlusion)では、3Dオブジェクトの幾何学的形状と自己閉塞の全体的課題に焦点を当てた3Dブロック世界データセットを提案する。
我々は、オブジェクト分類の文脈における自己閉塞の役割を調べるためにTEOSを設計した。
オブジェクトの分類では顕著な進歩が見られるが、自己排他は課題である。
現実世界では、3Dオブジェクトの自己閉塞は、ディープラーニングアプローチにとって重要な課題である。
しかし、人間は、例えば視点を変えたり、シーンを操作して必要な情報を収集するなど、複雑な戦略を展開することでこれに対処する。
TEOSでは,36と12のオブジェクトを含む2つの難易度(L1とL2)のデータセットを提示する。
対象物,マスク,被写体,カメラの位置,向き,自己閉塞量,および各対象物のCADモデルについて一様にサンプリングした738のビューを提供する。
5つのよく知られた分類ディープニューラルネットワークによるベースライン評価を提示し、TEOSがそれらすべてにとって重要な課題であることを示す。
データセットと事前訓練されたモデルは、科学コミュニティ向けにhttps://nvision2.data.eecs.yorku.ca/TEOSで公開されている。
関連論文リスト
- Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Unsupervised Discovery of Object-Centric Neural Fields [21.223170092979498]
1つの画像から3次元オブジェクト中心のシーン表現を推定する。
我々は、対象中心神経場(uOCF)の教師なし発見を提案する。
論文 参考訳(メタデータ) (2024-02-12T02:16:59Z) - 4D Unsupervised Object Discovery [53.561750858325915]
本研究では,3次元点雲と2次元RGB画像の時間的情報を用いた4次元データからオブジェクトを共同で検出する4次元非教師対象探索を提案する。
本稿では,2次元ローカライゼーションネットワークで協調的に最適化された3次元点雲上にClusterNetを提案することで,この課題に対する最初の実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-10-10T16:05:53Z) - Object Scene Representation Transformer [56.40544849442227]
オブジェクトシーン表現変換(OSRT: Object Scene Representation Transformer)は、新しいビュー合成を通じて、個々のオブジェクト表現が自然に現れる3D中心のモデルである。
OSRTは、既存のメソッドよりもオブジェクトとバックグラウンドの多様性が大きい、はるかに複雑なシーンにスケールする。
光電場パラメトリゼーションと新しいSlot Mixerデコーダのおかげで、合成レンダリングでは桁違いに高速である。
論文 参考訳(メタデータ) (2022-06-14T15:40:47Z) - Revealing Occlusions with 4D Neural Fields [19.71277637485384]
コンピュータビジョンシステムが動的に動作するためには、オブジェクトの永続性を表現し、推論できる必要がある。
本研究では,モノクロ時間から4次元視覚表現を推定する学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-22T20:14:42Z) - Unsupervised Learning of 3D Object Categories from Videos in the Wild [75.09720013151247]
オブジェクトインスタンスの大規模なコレクションの複数のビューからモデルを学ぶことに重点を置いています。
再構成を大幅に改善するワープコンディショニングレイ埋め込み(WCR)と呼ばれる新しいニューラルネットワーク設計を提案する。
本評価は,既存のベンチマークを用いた複数の深部単眼再構成ベースラインに対する性能改善を示す。
論文 参考訳(メタデータ) (2021-03-30T17:57:01Z) - Secrets of 3D Implicit Object Shape Reconstruction in the Wild [92.5554695397653]
コンピュータビジョン、ロボティクス、グラフィックスの様々な用途において、高精細な3Dオブジェクトをスパースから再構築することは重要です。
最近の神経暗黙的モデリング法は、合成データセットまたは高密度データセットで有望な結果を示す。
しかし、粗末でノイズの多い実世界のデータではパフォーマンスが悪い。
本論文では, 一般的な神経暗黙モデルの性能低下の根本原因を解析する。
論文 参考訳(メタデータ) (2021-01-18T03:24:48Z) - Learning to Reconstruct and Segment 3D Objects [4.709764624933227]
我々は、ディープニューラルネットワークを用いて一般的な、堅牢な表現を学習することで、その中のシーンやオブジェクトを理解することを目指している。
この論文は、単一または複数ビューからのオブジェクトレベルの3次元形状推定からシーンレベルのセマンティック理解までの3つのコアコントリビューションである。
論文 参考訳(メタデータ) (2020-10-19T15:09:04Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。