論文の概要: Affordance detection with Dynamic-Tree Capsule Networks
- arxiv url: http://arxiv.org/abs/2211.05200v1
- Date: Wed, 9 Nov 2022 21:14:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 15:59:35.927259
- Title: Affordance detection with Dynamic-Tree Capsule Networks
- Title(参考訳): ダイナミックツリーカプセルネットワークによる余裕検出
- Authors: Antonio Rodr\'iguez-S\'anchez, Simon Haller-Seeber, David Peer, Chris
Engelhardt, Jakob Mittelberger, Matteo Saveriano
- Abstract要約: 視覚入力からの精度検出は、自律的なロボット操作の基本的なステップである。
疎3次元点雲のための動的木構造カプセルをベースとした第1次空隙検出ネットワークを提案する。
このアルゴリズムは、未確認物体の把握に直面する場合、現在の空き検出方法よりも優れている。
- 参考スコア(独自算出の注目度): 5.847547503155588
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Affordance detection from visual input is a fundamental step in autonomous
robotic manipulation. Existing solutions to the problem of affordance detection
rely on convolutional neural networks. However, these networks do not consider
the spatial arrangement of the input data and miss parts-to-whole
relationships. Therefore, they fall short when confronted with novel,
previously unseen object instances or new viewpoints. One solution to overcome
such limitations can be to resort to capsule networks. In this paper, we
introduce the first affordance detection network based on dynamic
tree-structured capsules for sparse 3D point clouds. We show that our
capsule-based network outperforms current state-of-the-art models on viewpoint
invariance and parts-segmentation of new object instances through a novel
dataset we only used for evaluation and it is publicly available from
github.com/gipfelen/DTCG-Net. In the experimental evaluation we will show that
our algorithm is superior to current affordance detection methods when faced
with grasping previously unseen objects thanks to our Capsule Network enforcing
a parts-to-whole representation.
- Abstract(参考訳): 視覚入力からの精度検出は、自律的なロボット操作の基本的なステップである。
余剰検出の問題に対する既存の解決策は畳み込みニューラルネットワークに依存している。
しかし、これらのネットワークは入力データの空間配置や部品間関係を考慮しない。
したがって、新しいオブジェクトインスタンスや新しいビューポイントに直面すると、それらは短くなります。
このような制限を克服するひとつの解決策は、カプセルネットワークに頼ることだ。
本稿では,動的木構造カプセルを用いた3dポイント雲のための第1報アフォーアンス検出ネットワークを提案する。
我々のカプセルベースのネットワークは、評価にのみ使用される新しいデータセットを通じて、新しいオブジェクトインスタンスの視点不変性と部分分割に関する現在の最先端モデルよりも優れており、github.com/gipfelen/DTCG-Netから公開されています。
実験により,本アルゴリズムは,部品間表現を強制するカプセルネットワークにより,未確認物体の把握に直面する場合,現在のアベイランス検出法よりも優れていることを示す。
関連論文リスト
- Investigating the Gestalt Principle of Closure in Deep Convolutional Neural Networks [4.406699323036466]
本研究では,畳み込みニューラルネットワークにおける閉鎖原理について検討する。
端部を段階的に除去した単純な視覚刺激を用いた実験を行った。
我々は、不完全ポリゴンを分類する能力に基づいて、よく知られたネットワークを評価する。
論文 参考訳(メタデータ) (2024-11-01T14:36:21Z) - Spatial-Temporal Graph Enhanced DETR Towards Multi-Frame 3D Object Detection [54.041049052843604]
STEMDは,多フレーム3Dオブジェクト検出のためのDETRのようなパラダイムを改良した,新しいエンドツーエンドフレームワークである。
まず、オブジェクト間の空間的相互作用と複雑な時間的依存をモデル化するために、空間的時間的グラフアテンションネットワークを導入する。
最後に、ネットワークが正のクエリと、ベストマッチしない他の非常に類似したクエリを区別することが課題となる。
論文 参考訳(メタデータ) (2023-07-01T13:53:14Z) - ALSO: Automotive Lidar Self-supervision by Occupancy estimation [70.70557577874155]
本稿では,ポイントクラウド上で動作している深層知覚モデルのバックボーンを事前学習するための自己教師型手法を提案する。
中心となる考え方は、3Dポイントがサンプリングされる表面の再構成であるプリテキストタスクでモデルをトレーニングすることである。
直感的には、もしネットワークがわずかな入力ポイントのみを考慮し、シーン表面を再構築できるなら、おそらく意味情報の断片をキャプチャする。
論文 参考訳(メタデータ) (2022-12-12T13:10:19Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - Improved Orientation Estimation and Detection with Hybrid Object
Detection Networks for Automotive Radar [1.53934570513443]
我々は,レーダに基づく物体検出ネットワークを改善するために,グリッドとポイントを併用した新しいハイブリッドアーキテクチャを提案する。
格子描画の前に、点の正確な相対位置を利用して、点ベースモデルが近傍の特徴を抽出できることが示される。
これは、次の畳み込み検出バックボーンに対して大きなメリットがある。
論文 参考訳(メタデータ) (2022-05-03T06:29:03Z) - CPFN: Cascaded Primitive Fitting Networks for High-Resolution Point
Clouds [51.47100091540298]
本稿では,グローバルおよびローカルなプリミティブ検出ネットワークの検出結果をアダプティブパッチサンプリングネットワークに依存したCPFN(Cascaded Primitive Fitting Networks)を提案する。
CPFNは、高解像度のポイントクラウドデータセット上で、最先端のSPFNのパフォーマンスを13-14%改善し、特に20-22%の微細プリミティブの検出を改善している。
論文 参考訳(メタデータ) (2021-08-31T23:27:33Z) - Deformable Capsules for Object Detection [3.702343116848637]
我々は,コンピュータビジョンにおいて重要な問題である物体検出に対処するために,新しいカプセルネットワーク,変形可能なカプセル(textitDeformCaps)を導入した。
提案手法は,本論文において,オブジェクト検出のためのカプセルネットワークを構築するために,効率よくスケールアップできることを実証する。
論文 参考訳(メタデータ) (2021-04-11T15:36:30Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Recalibration of Neural Networks for Point Cloud Analysis [3.7814216736076434]
3Dポイントクラウドのためのディープニューラルネットワーク上での再校正モジュールを導入する。
提案モジュールを3次元ポイントクラウド解析のための3つの最先端ネットワークに組み込むことで,提案モジュールのメリットと汎用性を実証する。
第2の実験では,アルツハイマー病の診断における再校正ブロックの利点について検討した。
論文 参考訳(メタデータ) (2020-11-25T17:14:34Z) - Ventral-Dorsal Neural Networks: Object Detection via Selective Attention [51.79577908317031]
我々はVDNet(Ventral-Dorsal Networks)と呼ばれる新しいフレームワークを提案する。
人間の視覚システムの構造にインスパイアされた我々は「Ventral Network」と「Dorsal Network」の統合を提案する。
実験の結果,提案手法は最先端の物体検出手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-05-15T23:57:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。