論文の概要: 3D Shape Perception Integrates Intuitive Physics and
Analysis-by-Synthesis
- arxiv url: http://arxiv.org/abs/2301.03711v1
- Date: Mon, 9 Jan 2023 23:11:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 16:18:50.745543
- Title: 3D Shape Perception Integrates Intuitive Physics and
Analysis-by-Synthesis
- Title(参考訳): 3次元形状知覚は直観物理学と合成解析を統合する
- Authors: Ilker Yildirim, Max H. Siegel, Amir A. Soltani, Shraman Ray Chaudhari,
Joshua B. Tenenbaum
- Abstract要約: 典型例と非典型例の両方で知覚を説明する3次元形状知覚フレームワークを提案する。
以上の結果から,ボトムアップ型ディープニューラルネットワークモデルでは,人間の形状知覚が十分に考慮されていないことが示唆された。
- 参考スコア(独自算出の注目度): 39.933479524063976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many surface cues support three-dimensional shape perception, but people can
sometimes still see shape when these features are missing -- in extreme cases,
even when an object is completely occluded, as when covered with a draped
cloth. We propose a framework for 3D shape perception that explains perception
in both typical and atypical cases as analysis-by-synthesis, or inference in a
generative model of image formation: the model integrates intuitive physics to
explain how shape can be inferred from deformations it causes to other objects,
as in cloth-draping. Behavioral and computational studies comparing this
account with several alternatives show that it best matches human observers in
both accuracy and response times, and is the only model that correlates
significantly with human performance on difficult discriminations. Our results
suggest that bottom-up deep neural network models are not fully adequate
accounts of human shape perception, and point to how machine vision systems
might achieve more human-like robustness.
- Abstract(参考訳): 多くの表面のキューは3次元形状の知覚を支えているが、これらの特徴が欠落しているときには、時として、物体が完全に隠されている場合や、ドレープされた布で覆われている場合のように、形が見えることがある。
本研究では, 画像形成生成モデルにおける解析・合成モデルや推論モデルとして, 典型的・非典型的双方の知覚を記述した3次元形状知覚フレームワークを提案する。
この説明といくつかの代替品を比較した行動的・計算的研究は、人間の観察者が正確さと応答時間の両方で最適であることを示している。
我々の結果は、ボトムアップのディープニューラルネットワークモデルが人間の形状知覚を十分に考慮していないことを示唆し、マシンビジョンシステムがより人間的な堅牢性を達成する方法を示している。
関連論文リスト
- Learning Motion-Dependent Appearance for High-Fidelity Rendering of
Dynamic Humans from a Single Camera [49.357174195542854]
外観のダイナミクスを学ぶ上で重要な課題は、違法に大量の観測を必要とすることである。
本手法は,1つの視点映像から,身体のポーズや新しいビューを時間的に協調的に生成できることを示す。
論文 参考訳(メタデータ) (2022-03-24T00:22:03Z) - LatentHuman: Shape-and-Pose Disentangled Latent Representation for Human
Bodies [78.17425779503047]
本稿では,人体に対する新しい暗黙の表現法を提案する。
完全に微分可能で、非交叉形状で最適化可能であり、潜在空間を映し出す。
我々のモデルは、よく設計された損失を伴う、水密でない生データを直接訓練し、微調整することができる。
論文 参考訳(メタデータ) (2021-11-30T04:10:57Z) - Identity-Disentangled Neural Deformation Model for Dynamic Meshes [8.826835863410109]
我々は、暗黙の神経機能を用いたポーズ依存的な変形から、同一性によって引き起こされる形状変化を歪曲する神経変形モデルを学ぶ。
本稿では,大域的ポーズアライメントとニューラル変形モデルを統合する2つの手法を提案する。
また, 固定テンプレートの制約を伴わずにヤシの印刷や腱などの表面の細部を再構築する際に, 従来の骨格駆動モデルよりも優れていた。
論文 参考訳(メタデータ) (2021-09-30T17:43:06Z) - Detailed Avatar Recovery from Single Image [50.82102098057822]
本稿では,単一画像からエンフデテールアバターを回収するための新しい枠組みを提案する。
階層的メッシュ変形フレームワークでは、ディープニューラルネットワークを使用して3次元形状を洗練しています。
本手法は,皮膚モデルを超えて,完全なテクスチャで詳細な人体形状を復元することができる。
論文 参考訳(メタデータ) (2021-08-06T03:51:26Z) - Synthetic Training for Accurate 3D Human Pose and Shape Estimation in
the Wild [27.14060158187953]
本稿では,RGB画像からの単眼立体形状とポーズ推定の問題に対処する。
本研究では, シルエットや2次元関節などのプロキシ表現を形状と回帰ニューラルネットワークの入力として利用するシステムであるSTRAPSを提案する。
STRAPSは形状予測精度においてSSP-3Dの他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-09-21T16:39:04Z) - Combining Implicit Function Learning and Parametric Models for 3D Human
Reconstruction [123.62341095156611]
深層学習近似として表される暗黙の関数は、3次元曲面の再構成に強力である。
このような機能は、コンピュータグラフィックスとコンピュータビジョンの両方に柔軟なモデルを構築するのに不可欠である。
詳細に富んだ暗黙関数とパラメトリック表現を組み合わせた方法論を提案する。
論文 参考訳(メタデータ) (2020-07-22T13:46:14Z) - Visual Grounding of Learned Physical Models [66.04898704928517]
人間は、物体の物理的特性を直感的に認識し、複雑な相互作用に従事している場合でも、その動きを予測する。
我々は、物理を同時に推論し、視覚と力学の先行に基づく将来の予測を行うニューラルモデルを提案する。
実験により、我々のモデルはいくつかの観測範囲内で物理的特性を推測できることが示され、モデルが目に見えないシナリオに迅速に適応し、将来正確な予測を行うことができる。
論文 参考訳(メタデータ) (2020-04-28T17:06:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。