論文の概要: RPM-Net: Recurrent Prediction of Motion and Parts from Point Cloud
- arxiv url: http://arxiv.org/abs/2006.14865v1
- Date: Fri, 26 Jun 2020 08:51:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 21:39:11.424247
- Title: RPM-Net: Recurrent Prediction of Motion and Parts from Point Cloud
- Title(参考訳): RPM-Net:ポイントクラウドからの運動と部品の繰り返し予測
- Authors: Zihao Yan, Ruizhen Hu, Xingguang Yan, Luanmin Chen, Oliver van Kaick,
Hao Zhang, Hui Huang
- Abstract要約: RPM-Netは同時に可動部を推測し、その動きを1つの、未分節でおそらく部分的な3D点雲の形から幻覚させる。
様々な部位の可動性を示す3次元物体の同時動作と実物スキャンによる部分予測の結果を示す。
- 参考スコア(独自算出の注目度): 19.46077164219437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce RPM-Net, a deep learning-based approach which simultaneously
infers movable parts and hallucinates their motions from a single,
un-segmented, and possibly partial, 3D point cloud shape. RPM-Net is a novel
Recurrent Neural Network (RNN), composed of an encoder-decoder pair with
interleaved Long Short-Term Memory (LSTM) components, which together predict a
temporal sequence of pointwise displacements for the input point cloud. At the
same time, the displacements allow the network to learn movable parts,
resulting in a motion-based shape segmentation. Recursive applications of
RPM-Net on the obtained parts can predict finer-level part motions, resulting
in a hierarchical object segmentation. Furthermore, we develop a separate
network to estimate part mobilities, e.g., per-part motion parameters, from the
segmented motion sequence. Both networks learn deep predictive models from a
training set that exemplifies a variety of mobilities for diverse objects. We
show results of simultaneous motion and part predictions from synthetic and
real scans of 3D objects exhibiting a variety of part mobilities, possibly
involving multiple movable parts.
- Abstract(参考訳): rpm-netは,可動部を推論し,単一の非セグメント,おそらくは部分的な3dポイントクラウド形状からそれらの動きを幻覚する,深層学習に基づくアプローチである。
RPM-Netは、Long Short-Term Memory (LSTM) コンポーネントをインターリーブしたエンコーダとデコーダのペアで構成される、新しいリカレントニューラルネットワーク(RNN)である。
同時に、変位によってネットワークは可動部分を学ぶことができ、運動に基づく形状のセグメンテーションをもたらす。
得られた部分に対する RPM-Net の帰納的応用は、より微細な部分運動を予測でき、階層的なオブジェクトセグメンテーションをもたらす。
さらに, セグメント化された動き列から, 部分移動率(例えば, 部分移動パラメータ)を推定するネットワークを開発する。
どちらのネットワークも、さまざまなオブジェクトに対するさまざまな移動性を示すトレーニングセットから、深い予測モデルを学ぶ。
複数の可動部品を含む様々な部品移動性を示す3次元物体の合成および実画像からの同時運動と部分予測の結果を示す。
関連論文リスト
- Appearance-Based Refinement for Object-Centric Motion Segmentation [85.2426540999329]
本稿では,ビデオストリームの時間的一貫性を利用して,不正確なフローベース提案を補正する外観に基づく改善手法を提案する。
提案手法では,高精度なフロー予測マスクを模範として,シーケンスレベルの選択機構を用いる。
パフォーマンスは、DAVIS、YouTube、SegTrackv2、FBMS-59など、複数のビデオセグメンテーションベンチマークで評価されている。
論文 参考訳(メタデータ) (2023-12-18T18:59:51Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - SWTF: Sparse Weighted Temporal Fusion for Drone-Based Activity
Recognition [2.7677069267434873]
ドローンカメラによる人間活動認識(HAR)はコンピュータビジョン研究コミュニティから大きな注目を集めている。
本稿では,スパース標本化ビデオフレームを利用する新しいSparse Weighted Temporal Fusion (SWTF) モジュールを提案する。
提案されたモデルでは、各データセットで72.76%、92.56%、78.86%の精度が得られた。
論文 参考訳(メタデータ) (2022-11-10T12:45:43Z) - Efficient Unsupervised Video Object Segmentation Network Based on Motion
Guidance [1.5736899098702974]
本稿では,モーションガイダンスに基づく映像オブジェクト分割ネットワークを提案する。
モデルは、デュアルストリームネットワーク、モーションガイダンスモジュール、マルチスケールプログレッシブフュージョンモジュールを含む。
実験により,提案手法の優れた性能が証明された。
論文 参考訳(メタデータ) (2022-11-10T06:13:23Z) - Segmenting Moving Objects via an Object-Centric Layered Representation [100.26138772664811]
深層表現を用いたオブジェクト中心セグメンテーションモデルを提案する。
複数のオブジェクトで合成トレーニングデータを生成するスケーラブルなパイプラインを導入する。
標準的なビデオセグメンテーションベンチマークでモデルを評価する。
論文 参考訳(メタデータ) (2022-07-05T17:59:43Z) - Exploring Optical-Flow-Guided Motion and Detection-Based Appearance for
Temporal Sentence Grounding [61.57847727651068]
テンポラルな文グラウンドディングは、与えられた文クエリに従って、意図しないビデオのターゲットセグメントをセマンティックにローカライズすることを目的としている。
これまでのほとんどの研究は、ビデオ全体のフレーム全体のフレームレベルの特徴を学習することに集中しており、それらをテキスト情報と直接一致させる。
我々は,光フロー誘導型モーションアウェア,検出ベース外観アウェア,3D認識オブジェクトレベル機能を備えた,動き誘導型3Dセマンティック推論ネットワーク(MA3SRN)を提案する。
論文 参考訳(メタデータ) (2022-03-06T13:57:09Z) - MultiBodySync: Multi-Body Segmentation and Motion Estimation via 3D Scan
Synchronization [61.015704878681795]
本稿では,3次元点雲のための多体運動分節と剛性登録フレームワークを提案する。
このマルチスキャンマルチボディ設定によって生じる2つの非自明な課題は、である。
複数の入力ポイントクラウド間の対応性とセグメンテーション一貫性の保証
新規な対象カテゴリーに適用可能なロバストな運動に基づく剛体セグメンテーションを得る。
論文 参考訳(メタデータ) (2021-01-17T06:36:28Z) - Motion-Attentive Transition for Zero-Shot Video Object Segmentation [99.44383412488703]
ゼロショットオブジェクトセグメンテーションのためのモーション・アテンタティブ・トランジション・ネットワーク(MATNet)を提案する。
モーション・アテンティブ・トランジション (MAT) と呼ばれる非対称のアテンションブロックは、2ストリームエンコーダ内に設計されている。
このように、エンコーダは深く相互に作用し、物体の動きと外観の間の密な階層的な相互作用を可能にする。
論文 参考訳(メタデータ) (2020-03-09T16:58:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。