論文の概要: Deep Active Visual Attention for Real-time Robot Motion Generation:
Emergence of Tool-body Assimilation and Adaptive Tool-use
- arxiv url: http://arxiv.org/abs/2206.14530v1
- Date: Wed, 29 Jun 2022 10:55:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 21:08:04.551974
- Title: Deep Active Visual Attention for Real-time Robot Motion Generation:
Emergence of Tool-body Assimilation and Adaptive Tool-use
- Title(参考訳): リアルタイムロボット運動生成のための深部能動的視覚注意:ツールボディ同化と適応ツール利用の創出
- Authors: Hyogo Hiruma, Hiroshi Ito, Hiroki Mori, and Tetsuya Ogata
- Abstract要約: 本稿では,人間の認知構造に触発された新しいロボットモーション生成モデルを提案する。
このモデルには状態駆動のアクティブなトップダウン視覚的注意モジュールが組み込まれており、タスクの状態に基づいてターゲットを積極的に変更することができる。
その結果、訓練されていない道具を装着したり、実験者の気遣いに晒されたりしても、安定した注意と動きを維持できるモデル視覚の柔軟性の向上が示唆された。
- 参考スコア(独自算出の注目度): 9.141661467673817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sufficiently perceiving the environment is a critical factor in robot motion
generation. Although the introduction of deep visual processing models have
contributed in extending this ability, existing methods lack in the ability to
actively modify what to perceive; humans perform internally during visual
cognitive processes. This paper addresses the issue by proposing a novel robot
motion generation model, inspired by a human cognitive structure. The model
incorporates a state-driven active top-down visual attention module, which
acquires attentions that can actively change targets based on task states. We
term such attentions as role-based attentions, since the acquired attention
directed to targets that shared a coherent role throughout the motion. The
model was trained on a robot tool-use task, in which the role-based attentions
perceived the robot grippers and tool as identical end-effectors, during object
picking and object dragging motions respectively. This is analogous to a
biological phenomenon called tool-body assimilation, in which one regards a
handled tool as an extension of one's body. The results suggested an
improvement of flexibility in model's visual perception, which sustained stable
attention and motion even if it was provided with untrained tools or exposed to
experimenter's distractions.
- Abstract(参考訳): 環境を十分に知覚することはロボットの動き生成において重要な要素である。
深層視覚処理モデルの導入は、この機能の拡張に寄与しているが、既存の手法では、知覚するものを積極的に修正する能力が欠如している。
本稿では,人間の認知構造に触発された新しいロボット運動生成モデルを提案する。
このモデルには状態駆動のアクティブなトップダウン視覚的注意モジュールが組み込まれており、タスクの状態に基づいてターゲットを積極的に変更することができる。
このような注意をロールベースの注意と呼ぶのは、動きを通じて一貫した役割を共有するターゲットに向けられた注意の獲得からである。
このモデルは、ロボットツール使用タスクに基づいて訓練され、ロボットグリップとツールがそれぞれ、オブジェクトのピックとオブジェクトのドラッグング動作において、同一のエンドエフェクターとして認識される。
これは道具体同化と呼ばれる生物学的現象に類似しており、道具を自分の身体の拡張とみなすものである。
その結果、訓練されていない道具や実験者の気遣いに晒されても、安定した注意と動きを維持できるモデル視覚の柔軟性の向上が示唆された。
関連論文リスト
- Learning Goal-based Movement via Motivational-based Models in Cognitive
Mobile Robots [58.720142291102135]
人間は、強さと文脈に応じて行動を促進する必要がある。
また、各行動の知覚的快楽に関連する嗜好も作り出します。
これにより、意思決定がより複雑になり、コンテキストに応じてニーズと嗜好のバランスを取ることが求められます。
論文 参考訳(メタデータ) (2023-02-20T04:52:24Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - Improving Object Permanence using Agent Actions and Reasoning [8.847502932609737]
既存のアプローチは、低レベルの知覚からオブジェクト永続性を学ぶ。
我々は、ロボットが実行された動作に関する知識を使用する場合、オブジェクトの永続性を改善することができると論じる。
論文 参考訳(メタデータ) (2021-10-01T07:09:49Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Maintaining a Reliable World Model using Action-aware Perceptual
Anchoring [4.971403153199917]
物体が見えなくなったり見えなくなったりしても、ロボットは周囲のモデルを維持する必要がある。
これは、環境内のオブジェクトを表すシンボルに知覚情報をアンカーする必要がある。
本稿では,ロボットが物体を永続的に追跡できる行動認識型知覚アンカーのモデルを提案する。
論文 参考訳(メタデータ) (2021-07-07T06:35:14Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - How to select and use tools? : Active Perception of Target Objects Using
Multimodal Deep Learning [9.677391628613025]
我々は,ロボットが物体と相互作用する間,マルチモーダル感覚運動子データを用いた能動的知覚に焦点を当てた。
物体の特徴を認識することを学ぶディープニューラルネットワーク(DNN)モデルを構築した。
また, 画像, 力, 触覚データのコントリビューションについても検討し, 多様なマルチモーダル情報を学習することで, ツール使用に対する認知度が向上することを示す。
論文 参考訳(メタデータ) (2021-06-04T12:49:30Z) - Careful with That! Observation of Human Movements to Estimate Objects
Properties [106.925705883949]
我々は、物体の重さについての洞察を伝える人間の運動行動の特徴に焦点を当てる。
最後の目標は、ロボットがオブジェクトハンドリングに必要なケアの度合いを自律的に推測できるようにすることです。
論文 参考訳(メタデータ) (2021-03-02T08:14:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。