論文の概要: Multimodal Material Classification for Robots using Spectroscopy and
High Resolution Texture Imaging
- arxiv url: http://arxiv.org/abs/2004.01160v2
- Date: Thu, 30 Jul 2020 19:45:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 13:24:03.328526
- Title: Multimodal Material Classification for Robots using Spectroscopy and
High Resolution Texture Imaging
- Title(参考訳): 分光・高分解能テクスチャイメージングを用いたロボットのマルチモーダル材料分類
- Authors: Zackory Erickson, Eliot Xing, Bharat Srirangam, Sonia Chernova, and
Charles C. Kemp
- Abstract要約: 近赤外分光法と近距離高分解能テクスチャイメージングを利用したマルチモーダルセンシング技術を提案する。
この表現により、ロボットは従来の最先端のアプローチと比較して、より優れた性能で材料を認識できることが示される。
- 参考スコア(独自算出の注目度): 14.458436940557924
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Material recognition can help inform robots about how to properly interact
with and manipulate real-world objects. In this paper, we present a multimodal
sensing technique, leveraging near-infrared spectroscopy and close-range high
resolution texture imaging, that enables robots to estimate the materials of
household objects. We release a dataset of high resolution texture images and
spectral measurements collected from a mobile manipulator that interacted with
144 household objects. We then present a neural network architecture that
learns a compact multimodal representation of spectral measurements and texture
images. When generalizing material classification to new objects, we show that
this multimodal representation enables a robot to recognize materials with
greater performance as compared to prior state-of-the-art approaches. Finally,
we present how a robot can combine this high resolution local sensing with
images from the robot's head-mounted camera to achieve accurate material
classification over a scene of objects on a table.
- Abstract(参考訳): 物質認識は、現実世界の物体と適切に対話し、操作する方法をロボットに知らせるのに役立つ。
本稿では,近赤外分光法と近距離高分解能テクスチャイメージングを利用したマルチモーダルセンシング技術を提案する。
144個の家庭用物体と相互作用する移動マニピュレータから収集した高解像度テクスチャ画像とスペクトル測定のデータセットを作成した。
次に,スペクトル計測とテクスチャ画像のコンパクトなマルチモーダル表現を学習するニューラルネットワークアーキテクチャを提案する。
素材分類を新しい物体に一般化する場合,このマルチモーダル表現により,ロボットは先行技術に比べて高い性能を持つ素材を認識できることを示す。
最後に,この高分解能局所センシングをロボットの頭部搭載カメラの画像と組み合わせることで,テーブル上の物体のシーン上で正確な物質分類を実現する方法を提案する。
関連論文リスト
- Teaching Unknown Objects by Leveraging Human Gaze and Augmented Reality
in Human-Robot Interaction [3.1473798197405953]
この論文は、人間-ロボットインタラクション(HRI)の文脈で未知の物体を教えることを目的としている。
視線追跡と拡張現実(Augmented Reality)を組み合わせることで、人間の教師がロボットとコミュニケーションできる強力なシナジーが生まれました。
ロボットの物体検出能力は、広範囲なデータセットで訓練された最先端の物体検出器に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-12T11:34:43Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Robotic Testbed for Rendezvous and Optical Navigation: Multi-Source
Calibration and Machine Learning Use Cases [0.0]
この研究は、スタンフォード大学のRendezvous and Optical Navigation (TRON)のためのRobotic Testbedの最新の進歩を示す。
TRONの施設は、2つの6自由度KUKAロボットアームと、カメラとターゲットモックアップモデルの間の任意の相対的なポーズを再構成するViconモーショントラックカメラで構成されている。
合成画像に予めトレーニングされた畳み込みニューラルネットワーク(CNN)を用いて合成画像とTRONシミュレーション画像の比較解析を行う。
論文 参考訳(メタデータ) (2021-08-12T04:38:50Z) - Visionary: Vision architecture discovery for robot learning [58.67846907923373]
低次元動作入力と高次元視覚入力の相互作用を検出するロボット操作学習のための視覚に基づくアーキテクチャ探索アルゴリズムを提案する。
提案手法は,タスクのトレーニング中にアーキテクチャを自動設計する - イメージ特徴表現をアクションと組み合わせ,参加する新しい方法と,それ以前のレイヤの機能とを組み合わせて発見する。
論文 参考訳(メタデータ) (2021-03-26T17:51:43Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - A Multisensory Learning Architecture for Rotation-invariant Object
Recognition [0.0]
本研究では,iCubロボットを用いて構築した新しいデータセットを用いて,物体認識のための多感覚機械学習アーキテクチャを提案する。
提案アーキテクチャでは、畳み込みニューラルネットワークを用いて、グレースケールカラー画像の表現(すなわち特徴)と深度データを処理するための多層パーセプトロンアルゴリズムを組み合わせる。
論文 参考訳(メタデータ) (2020-09-14T09:39:48Z) - The iCub multisensor datasets for robot and computer vision applications [0.7340017786387767]
この文書は、追加の深度センサとカラーカメラを備えたiCubロボットを用いて構築された新しいデータセットを提示する。
我々は,210個の物体の色と深度情報を取得するために,このロボットを使用した。
論文 参考訳(メタデータ) (2020-03-04T10:59:29Z) - Learning Depth With Very Sparse Supervision [57.911425589947314]
本稿では, 環境との相互作用を通じて, 知覚が世界の3次元特性と結合するという考えを考察する。
我々は、環境と対話するロボットが利用できるような、特殊なグローバルローカルネットワークアーキテクチャを訓練する。
いくつかのデータセットの実験では、画像ピクセルの1つでも基底真理が利用できる場合、提案されたネットワークは、最先端のアプローチよりも22.5%の精度でモノクロの深度推定を学習できることを示している。
論文 参考訳(メタデータ) (2020-03-02T10:44:13Z) - Real-Time Object Detection and Recognition on Low-Compute Humanoid
Robots using Deep Learning [0.12599533416395764]
本稿では、複数の低計算NAOロボットがカメラビューにおける物体のリアルタイム検出、認識、位置決めを行うことを可能にする新しいアーキテクチャについて述べる。
オブジェクト検出と局所化のためのアルゴリズムは,複数のシナリオにおける屋内実験に基づくYOLOv3の実証的な修正である。
このアーキテクチャは、カメラフィードからニューラルネットにリアルタイムフレームを供給し、その結果を使ってロボットを誘導する効果的なエンドツーエンドパイプラインも備えている。
論文 参考訳(メタデータ) (2020-01-20T05:24:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。