論文の概要: Seeing by haptic glance: reinforcement learning-based 3D object
Recognition
- arxiv url: http://arxiv.org/abs/2102.07599v1
- Date: Mon, 15 Feb 2021 15:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:48:03.684770
- Title: Seeing by haptic glance: reinforcement learning-based 3D object
Recognition
- Title(参考訳): 触覚で見る:強化学習に基づく3Dオブジェクト認識
- Authors: Kevin Riou, Suiyi Ling, Guillaume Gallot, Patrick Le Callet
- Abstract要約: 対象物と指の間の触覚接触数に制限があり、対象物を見ることなく3D認識を行うことができる。
この能力は認知神経科学における「触覚的視線」と定義される。
既存の3D認識モデルのほとんどは、高密度な3Dデータに基づいて開発された。
触覚探索によって3Dデータを収集するためにロボットが使用される多くの実生活のユースケースでは、限られた数の3Dポイントしか収集できない。
アクティブに収集された3Dで客観的な3D認識と同時に触覚探査手順を最適化する新しい強化学習ベースのフレームワークが提案される。
- 参考スコア(独自算出の注目度): 31.80213713136647
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Human is able to conduct 3D recognition by a limited number of haptic
contacts between the target object and his/her fingers without seeing the
object. This capability is defined as `haptic glance' in cognitive
neuroscience. Most of the existing 3D recognition models were developed based
on dense 3D data. Nonetheless, in many real-life use cases, where robots are
used to collect 3D data by haptic exploration, only a limited number of 3D
points could be collected. In this study, we thus focus on solving the
intractable problem of how to obtain cognitively representative 3D key-points
of a target object with limited interactions between the robot and the object.
A novel reinforcement learning based framework is proposed, where the haptic
exploration procedure (the agent iteratively predicts the next position for the
robot to explore) is optimized simultaneously with the objective 3D recognition
with actively collected 3D points. As the model is rewarded only when the 3D
object is accurately recognized, it is driven to find the sparse yet efficient
haptic-perceptual 3D representation of the object. Experimental results show
that our proposed model outperforms the state of the art models.
- Abstract(参考訳): 対象物と指の間の触覚接触数に制限があり、対象物を見ることなく3D認識を行うことができる。
この能力は認知神経科学において「触覚的視線」と定義される。
既存の3D認識モデルのほとんどは、高密度な3Dデータに基づいて開発された。
それでも、ロボットが触覚探索によって3Dデータを収集する現実的なユースケースでは、限られた数の3Dポイントしか収集できない。
そこで本研究では,対象物体の認知的に代表される3dキーポイントをロボットと物体との相互作用が限定されたまま獲得する方法に関する難解な課題に焦点をあてる。
3dポイントを積極的に収集した客観的3d認識と同時に、触覚探索手順(エージェントがロボットの次の位置を反復的に予測する)を最適化した新しい強化学習ベースフレームワークを提案する。
3Dオブジェクトが正確に認識された場合にのみモデルに報酬が与えられるので、オブジェクトのスパースで効率的な触覚知覚的な3D表現を見つけるように駆動される。
実験の結果,提案モデルがアートモデルの状態を上回っていることがわかった。
関連論文リスト
- SUGAR: Pre-training 3D Visual Representations for Robotics [85.55534363501131]
ロボット工学のための新しい3D事前学習フレームワークSUGARを紹介した。
SUGARは3次元の点雲を通してオブジェクトの意味的、幾何学的、および余分な特性をキャプチャする。
SuGARの3D表現は最先端の2Dおよび3D表現よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-04-01T21:23:03Z) - SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - Perceiving Unseen 3D Objects by Poking the Objects [45.70559270947074]
本稿では,3Dオブジェクトの自動検出と再構成を行うポーキング方式を提案する。
ポーキングプロセスにより、ロボットは見えない3Dオブジェクトを発見できるだけでなく、多視点で観察することもできる。
実世界のデータを用いた実験により,本手法は高品質な未知の3Dオブジェクトを教師なしで発見・再構成できることが判明した。
論文 参考訳(メタデータ) (2023-02-26T18:22:13Z) - SL3D: Self-supervised-Self-labeled 3D Recognition [89.19932178712065]
自己教師付き自己ラベル型3D認識(SL3D)フレームワークを提案する。
SL3Dはクラスタリングと学習機能表現という2つの結合した目的を同時に解決する。
分類、オブジェクト検出、セマンティックセグメンテーションなど、さまざまな3D認識タスクに応用することができる。
論文 参考訳(メタデータ) (2022-10-30T11:08:25Z) - Uncertainty Guided Policy for Active Robotic 3D Reconstruction using
Neural Radiance Fields [82.21033337949757]
本稿では,物体の暗黙のニューラル表現の各光線に沿ったカラーサンプルの重量分布のエントロピーを計算した線量不確実性推定器を提案する。
提案した推定器を用いた新しい視点から, 基礎となる3次元形状の不確かさを推測することが可能であることを示す。
ニューラルラディアンス場に基づく表現における線量不確実性によって導かれる次ベクター選択ポリシーを提案する。
論文 参考訳(メタデータ) (2022-09-17T21:28:57Z) - Gait Recognition in the Wild with Dense 3D Representations and A
Benchmark [86.68648536257588]
既存の歩行認識の研究は、制約されたシーンにおける人間の体のシルエットや骨格のような2D表現によって支配されている。
本稿では,野生における歩行認識のための高密度な3次元表現の探索を目的とする。
大規模な3D表現に基づく歩行認識データセットGait3Dを構築した。
論文 参考訳(メタデータ) (2022-04-06T03:54:06Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。