論文の概要: Revisiting Proprioceptive Sensing for Articulated Object Manipulation
- arxiv url: http://arxiv.org/abs/2305.09584v1
- Date: Tue, 16 May 2023 16:31:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:00:04.424068
- Title: Revisiting Proprioceptive Sensing for Articulated Object Manipulation
- Title(参考訳): 調音物体操作のための再視認性センシング
- Authors: Thomas Lips, Francis wyffels
- Abstract要約: 位置制御ロボットとパラレルグリップを併用し,プロトリオセプティヴセンシングを用いてキャビネットを開くシステムを構築した。
我々はこのシステムの質的評価を行い、グリップとハンドリングの間のスリップが性能を制限することを発見した。
音声で操作するオブジェクト操作システムにおいて、私たちは接触中にプロトロセプティブな情報をもっと活用すべきなのか、それとも複雑さを追加する価値がないのか、視覚だけで管理できるのか、という疑問が浮かび上がってくる。
- 参考スコア(独自算出の注目度): 1.4772379476524404
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots that assist humans will need to interact with articulated objects such
as cabinets or microwaves. Early work on creating systems for doing so used
proprioceptive sensing to estimate joint mechanisms during contact. However,
nowadays, almost all systems use only vision and no longer consider
proprioceptive information during contact. We believe that proprioceptive
information during contact is a valuable source of information and did not find
clear motivation for not using it in the literature. Therefore, in this paper,
we create a system that, starting from a given grasp, uses proprioceptive
sensing to open cabinets with a position-controlled robot and a parallel
gripper. We perform a qualitative evaluation of this system, where we find that
slip between the gripper and handle limits the performance. Nonetheless, we
find that the system already performs quite well. This poses the question:
should we make more use of proprioceptive information during contact in
articulated object manipulation systems, or is it not worth the added
complexity, and can we manage with vision alone? We do not have an answer to
this question, but we hope to spark some discussion on the matter. The codebase
and videos of the system are available at
https://tlpss.github.io/revisiting-proprioception-for-articulated-manipulation/.
- Abstract(参考訳): 人間を助けるロボットは、キャビネットや電子レンジのような関節のある物体と対話する必要がある。
初期の研究では、接触時の関節機構を推定するためにプロピオセプティブセンシングを用いた。
しかし今日では、ほとんどのシステムは視力のみを使用し、接触中は受容情報を考慮しなくなった。
我々は,接触時の受容的情報は貴重な情報源であり,文献に使用しない明確な動機を見出さなかった。
そこで,本稿では,位置制御ロボットとパラレルグリップパーを備えたキャビネットを開くために,主観的感覚を用いたシステムを構築した。
本システムでは,グリッパーとハンドルのずれが性能に限界があることを見出し,定性評価を行う。
それでも、システムはすでにかなりうまく機能しています。
人工的なオブジェクト操作システムでは、接触中に固有情報をより多く利用するべきか、それとも、追加の複雑さに値しないのか、視覚だけで管理できるのか?
この質問に対する回答はありませんが、この問題についていくつかの議論を起こそうと考えています。
システムのコードベースとビデオはhttps://tlpss.github.io/revisiting-proprioception-for-articulated-manipulation/で見ることができる。
関連論文リスト
- Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - DetGPT: Detect What You Need via Reasoning [33.00345609506097]
我々は、推論に基づくオブジェクト検出と呼ばれる、オブジェクト検出のための新しいパラダイムを導入する。
特定のオブジェクト名に依存する従来のオブジェクト検出方法とは異なり,本手法では自然言語命令を用いてシステムと対話することが可能である。
提案手法はDetGPTと呼ばれ,最先端のマルチモーダルモデルとオープンボキャブラリオブジェクト検出器を利用する。
論文 参考訳(メタデータ) (2023-05-23T15:37:28Z) - Characterizing Manipulation from AI Systems [7.344068411174193]
我々は、他の分野からの操作に関する文献の上に構築し、操作の可能な概念の空間を特徴づける。
本稿では,特徴量に基づく操作の定義を提案する。
第3に,不正や強制など,操作と関連する概念の関連性について論じる。
論文 参考訳(メタデータ) (2023-03-16T15:19:21Z) - Tactile-Filter: Interactive Tactile Perception for Part Mating [54.46221808805662]
人間は触覚と触覚に頼っている。
視覚ベースの触覚センサーは、様々なロボット認識や制御タスクに広く利用されている。
本稿では,視覚に基づく触覚センサを用いた対話的知覚手法を提案する。
論文 参考訳(メタデータ) (2023-03-10T16:27:37Z) - See, Hear, and Feel: Smart Sensory Fusion for Robotic Manipulation [49.925499720323806]
視覚的、聴覚的、触覚的知覚が、ロボットが複雑な操作タスクを解くのにどのように役立つかを研究する。
私たちは、カメラで見たり、コンタクトマイクで聞いたり、視覚ベースの触覚センサーで感じるロボットシステムを構築しました。
論文 参考訳(メタデータ) (2022-12-07T18:55:53Z) - Robots-Dont-Cry: Understanding Falsely Anthropomorphic Utterances in
Dialog Systems [64.10696852552103]
非常に人為的な反応は、ユーザーが人間と対話していると考えることを不快に、あるいは暗黙的に騙すかもしれない。
9つの異なるデータソースからサンプリングした約900の2ターンダイアログの実現可能性に関する人間の評価を収集する。
論文 参考訳(メタデータ) (2022-10-22T12:10:44Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - The R-U-A-Robot Dataset: Helping Avoid Chatbot Deception by Detecting
User Questions About Human or Non-Human Identity [41.43519695929595]
システムデザイナがシステムに対して,その人間以外のアイデンティティを確認できるようにする方法を理解することを目的としている。
ロボットの意図にまつわる2500以上のフレーズを集めていますか?
分類器を比較して、意図を認識し、精度/リコールとモデルの複雑さのトレードオフについて議論する。
論文 参考訳(メタデータ) (2021-06-04T20:04:33Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z) - Understanding Contexts Inside Robot and Human Manipulation Tasks through
a Vision-Language Model and Ontology System in a Video Stream [4.450615100675747]
本稿では,ロボットと人間の操作の双方に対して,厳密な制約付き知識領域の下で視覚データセットを提案する。
本稿では,視覚的注意とコモンセンス知識に満ちた知識グラフを組み合わせて生成する手法を提案する。
提案手法により,ロボットはリアルタイム映像を視聴することで,人間の意図的な動作を模倣することができる。
論文 参考訳(メタデータ) (2020-03-02T19:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。