論文の概要: Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation
- arxiv url: http://arxiv.org/abs/2006.05123v2
- Date: Tue, 2 Feb 2021 10:26:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:31:26.270656
- Title: Orientation Attentive Robotic Grasp Synthesis with Augmented Grasp Map
Representation
- Title(参考訳): Augmented Grasp Map Representation を用いた指向性ロボットグラフ合成
- Authors: Georgia Chalvatzaki, Nikolaos Gkanatsios, Petros Maragos, Jan Peters
- Abstract要約: 物体の形態学的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存のグリップ生成アプローチを呪い、グリップポイント毎に大きく異なる向きのアノテーションを集約することにより、不連続グリップマップを構築する。
そこで本研究では,角度空間を複数のビンに分割することで,方向を局所的に歪曲する,画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
- 参考スコア(独自算出の注目度): 62.79160608266713
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inherent morphological characteristics in objects may offer a wide range of
plausible grasping orientations that obfuscates the visual learning of robotic
grasping. Existing grasp generation approaches are cursed to construct
discontinuous grasp maps by aggregating annotations for drastically different
orientations per grasping point. Moreover, current methods generate grasp
candidates across a single direction in the robot's viewpoint, ignoring its
feasibility constraints. In this paper, we propose a novel augmented grasp map
representation, suitable for pixel-wise synthesis, that locally disentangles
grasping orientations by partitioning the angle space into multiple bins.
Furthermore, we introduce the ORientation AtteNtive Grasp synthEsis (ORANGE)
framework, that jointly addresses classification into orientation bins and
angle-value regression. The bin-wise orientation maps further serve as an
attention mechanism for areas with higher graspability, i.e. probability of
being an actual grasp point. We report new state-of-the-art 94.71% performance
on Jacquard, with a simple U-Net using only depth images, outperforming even
multi-modal approaches. Subsequent qualitative results with a real bi-manual
robot validate ORANGE's effectiveness in generating grasps for multiple
orientations, hence allowing planning grasps that are feasible.
- Abstract(参考訳): 物体の因果的な形態的特徴は、ロボットの把握の視覚的学習を阻害する、幅広い可視的把握方向を提供する可能性がある。
既存の把持生成アプローチは、把持点ごとに大きく異なる向きのアノテーションを集約することで不連続な把持マップを構築するために呪いを負う。
さらに,現状の手法では,ロボットの視点において,その実現可能性の制約を無視して,単一方向の把握候補を生成する。
本稿では, 角度空間を複数のビンに分割することにより, 方向を局所的に歪曲する, 画素ワイズ合成に適した拡張型グリップマップ表現を提案する。
さらに,向き付けビンへの分類と角度値回帰を共同で扱う向き付け注意把握合成(orange)フレームワークについても紹介する。
双角方向写像はさらに、把握性が高い領域、すなわち実際の把握点となる確率に対する注意のメカニズムとして機能する。
Jacquardの94.71%の性能は、深度画像のみを用いた単純なU-Netで、マルチモーダルアプローチよりも優れています。
その後の定性的な結果から,ORANGEが複数の方向のグリップを生成することの有効性を検証し,実現可能な計画的グリップを実現する。
関連論文リスト
- Scalable Self-Supervised Representation Learning from Spatiotemporal
Motion Trajectories for Multimodal Computer Vision [0.0]
本稿では,GPSトラジェクトリから地理的位置の表現を学習するための自己教師付きラベルなし手法を提案する。
到達可能性埋め込みは意味論的に意味のある表現であり,精度・リコール曲線(AUPRC)測定値の領域を用いて測定すると,性能が4~23%向上することを示す。
論文 参考訳(メタデータ) (2022-10-07T02:41:02Z) - Deep Orientation-Aware Functional Maps: Tackling Symmetry Issues in
Shape Matching [32.03608983026839]
そこで本研究では,教師なし環境下でオリエンテーションを意識した特徴を学習するための新しいディープラーニング手法を提案する。
私たちのアーキテクチャはDiffusionNet上に構築されています。
論文 参考訳(メタデータ) (2022-04-28T12:36:09Z) - Reachability Embeddings: Scalable Self-Supervised Representation
Learning from Markovian Trajectories for Geospatial Computer Vision [0.0]
ラベルのないGPSトラジェクトリから地理的位置の表現を学習するための自己教師付き手法を提案する。
スケーラブルで分散されたアルゴリズムは、リーチビリティ・サマリーと呼ばれるイメージライクな表現を計算するために提示される。
到達可能性埋め込みは意味的に意味のある表現であり、結果として性能が4~23%向上することを示す。
論文 参考訳(メタデータ) (2021-10-24T20:10:22Z) - TSG: Target-Selective Gradient Backprop for Probing CNN Visual Saliency [72.9106103283475]
我々は、畳み込みニューラルネットワークを解釈するために視覚的サリエンシ、すなわち視覚的説明について研究する。
これらの観測に触発されて、我々はTSG(Target-Selective Gradient)バックプロップと呼ばれる新しいビジュアル・サリエンシ・フレームワークを提案する。
提案したTSGはTSG-ConvとTSG-FCの2つのコンポーネントから構成され、それぞれ畳み込み層と完全連結層の勾配を補正する。
論文 参考訳(メタデータ) (2021-10-11T12:00:20Z) - Fork or Fail: Cycle-Consistent Training with Many-to-One Mappings [67.11712279612583]
サイクル一貫性トレーニングは、2つの関心領域間の前方および逆マッピングの学習に広く用いられている。
我々は条件付き変分オートエンコーダ(cvae)アプローチを開発し、これは全射写像を暗黙の単射に変換するものと見なすことができる。
私たちのパイプラインは、グラフからテキストへの多様性を促進しながら、サイクルトレーニング中に多くのマッピングをキャプチャできます。
論文 参考訳(メタデータ) (2020-12-14T10:59:59Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - Gravitational Models Explain Shifts on Human Visual Attention [80.76475913429357]
視覚的注意(英: visual attention)とは、人間の脳が優先的な処理のために関連する感覚情報を選択する能力を指す。
過去30年間に様々な評価方法が提案されてきた。
注意変動を記述するための重力モデル(GRAV)を提案する。
論文 参考訳(メタデータ) (2020-09-15T10:12:41Z) - Gaussian Process Gradient Maps for Loop-Closure Detection in
Unstructured Planetary Environments [17.276441789710574]
以前にマップされた位置を認識する能力は、自律システムにとって不可欠な機能である。
非構造的な惑星のような環境は、地形の類似性のためにこれらのシステムに大きな課題をもたらす。
本稿では,空間情報のみを用いたループ閉鎖問題の解法を提案する。
論文 参考訳(メタデータ) (2020-09-01T04:41:40Z) - Object-and-Action Aware Model for Visual Language Navigation [70.33142095637515]
VLN(Vision-and-Language Navigation)は、比較的一般的な自然言語命令をロボットエージェントアクションに変換する必要があるという点で特徴的である。
本稿では、これらの2種類の自然言語に基づく命令を別々に処理するオブジェクト・アンド・アクション・アウェア・モデル(OAAM)を提案する。
これにより、各プロセスは、オブジェクト中心/アクション中心の命令を、自身の視覚的知覚/行動指向に柔軟に一致させることができる。
論文 参考訳(メタデータ) (2020-07-29T06:32:18Z) - Improving Movement Predictions of Traffic Actors in Bird's-Eye View
Models using GANs and Differentiable Trajectory Rasterization [12.652210024012374]
自動運転パズルの最も重要なピースの1つは、周囲の交通機関の将来の動きを予測するタスクである。
一方はトップダウンのシーン化と他方はGAN(Generative Adrial Networks)に基づく手法が特に成功したことが示されている。
本稿では,これら2つの方向に基づいて,Aversa-based conditional GANアーキテクチャを提案する。
提案手法を実世界の大規模データセット上で評価し,最先端のGANベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-14T00:41:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。