論文の概要: Learning suction graspability considering grasp quality and robot
reachability for bin-picking
- arxiv url: http://arxiv.org/abs/2111.02571v1
- Date: Thu, 4 Nov 2021 00:55:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 15:47:53.673581
- Title: Learning suction graspability considering grasp quality and robot
reachability for bin-picking
- Title(参考訳): ビンピッキングにおける把持品質とロボット到達性を考慮した学習吸引把持性
- Authors: Ping Jiang, Junji Oaki, Yoshiyuki Ishihara, Junichiro Ooga, Haifeng
Han, Atsushi Sugahara, Seiji Tokura, Haruna Eto, Kazuma Komoda, and Akihito
Ogawa
- Abstract要約: 直感的な幾何学的解析に基づくグリップ品質評価指標を提案する。
さらに,到達可能性評価指標を取り入れた。
実験結果から,直感的に把握できる品質評価基準は,物理的に着想を得た指標と競合することがわかった。
- 参考スコア(独自算出の注目度): 4.317666242093779
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has been widely used for inferring robust grasps. Although
human-labeled RGB-D datasets were initially used to learn grasp configurations,
preparation of this kind of large dataset is expensive. To address this
problem, images were generated by a physical simulator, and a physically
inspired model (e.g., a contact model between a suction vacuum cup and object)
was used as a grasp quality evaluation metric to annotate the synthesized
images. However, this kind of contact model is complicated and requires
parameter identification by experiments to ensure real world performance. In
addition, previous studies have not considered manipulator reachability such as
when a grasp configuration with high grasp quality is unable to reach the
target due to collisions or the physical limitations of the robot. In this
study, we propose an intuitive geometric analytic-based grasp quality
evaluation metric. We further incorporate a reachability evaluation metric. We
annotate the pixel-wise grasp quality and reachability by the proposed
evaluation metric on synthesized images in a simulator to train an
auto-encoder--decoder called suction graspability U-Net++ (SG-U-Net++).
Experiment results show that our intuitive grasp quality evaluation metric is
competitive with a physically-inspired metric. Learning the reachability helps
to reduce motion planning computation time by removing obviously unreachable
candidates. The system achieves an overall picking speed of 560 PPH (pieces per
hour).
- Abstract(参考訳): 深層学習は、しっかりとした把握を推測するために広く用いられている。
人間のラベル付きRGB-Dデータセットは最初、把握構成の学習に使用されたが、この種の大規模なデータセットの作成は高価である。
この問題を解決するため、物理シミュレータによって画像が生成され、合成画像に注釈をつけるためのグリップ品質評価指標として物理的にインスパイアされたモデル(吸引真空カップとオブジェクトの接触モデルなど)が使用された。
しかし、この種の接触モデルは複雑であり、実世界のパフォーマンスを保証するために実験によるパラメータ識別が必要である。
また、従来の研究では、ロボットの衝突や物理的制約により、高い把持品質の把持構成が目標に到達できない場合など、マニピュレータの到達可能性も考慮されていない。
本研究では,直感的な幾何学的解析に基づく把握品質評価指標を提案する。
我々はさらに到達可能性評価指標を取り入れている。
そこで本研究では,提案手法を用いた合成画像の評価基準を用いて,吸引把握性u-net++ (sg-u-net++) と呼ばれる自動エンコーダデコーダを訓練する。
実験結果から,直感的な把握品質評価基準は,物理的に着想を得た指標と競合することがわかった。
到達性を学ぶことは、明らかに到達不可能な候補を取り除き、運動計画計算時間を短縮するのに役立つ。
システム全体のピッキング速度は560 PPH (pieces per hour) である。
関連論文リスト
- Self-Training with Pseudo-Label Scorer for Aspect Sentiment Quad Prediction [54.23208041792073]
Aspect Sentiment Quad Prediction (ASQP) は、与えられたレビューに対して全てのクワッド(アスペクト項、アスペクトカテゴリー、意見項、感情極性)を予測することを目的としている。
ASQPタスクにおける重要な課題はラベル付きデータの不足であり、既存のメソッドのパフォーマンスを制限している。
そこで我々は,擬似ラベルスコアラーを用いた自己学習フレームワークを提案し,レビューと擬似ラベルの一致をスコアラーが評価する。
論文 参考訳(メタデータ) (2024-06-26T05:30:21Z) - Enhancing Digital Hologram Reconstruction Using Reverse-Attention Loss for Untrained Physics-Driven Deep Learning Models with Uncertain Distance [10.788482076164314]
未学習のディープラーニング手法におけるオートフォーカス問題に対処するための先駆的なアプローチを提案する。
提案手法は,競合する手法に対する大幅な再構成性能を示す。
例えば、PSNRでは1dB以下であり、SSIMでは0.002以下である。
論文 参考訳(メタデータ) (2024-01-11T01:30:46Z) - DeepSimHO: Stable Pose Estimation for Hand-Object Interaction via
Physics Simulation [81.11585774044848]
我々は、前方物理シミュレーションと後方勾配近似とニューラルネットワークを組み合わせた新しいディープラーニングパイプラインであるDeepSimHOを紹介する。
提案手法は, 評価の安定性を著しく向上し, テスト時間最適化よりも優れた効率性を実現する。
論文 参考訳(メタデータ) (2023-10-11T05:34:36Z) - CONVIQT: Contrastive Video Quality Estimator [63.749184706461826]
知覚ビデオ品質評価(VQA)は、多くのストリーミングおよびビデオ共有プラットフォームにおいて不可欠な要素である。
本稿では,視覚的に関連のある映像品質表現を自己指導的に学習する問題について考察する。
本研究は, 自己教師型学習を用いて, 知覚力による説得力のある表現が得られることを示す。
論文 参考訳(メタデータ) (2022-06-29T15:22:01Z) - Information-Theoretic Odometry Learning [83.36195426897768]
生体計測推定を目的とした学習動機付け手法のための統合情報理論フレームワークを提案する。
提案フレームワークは情報理論言語の性能評価と理解のためのエレガントなツールを提供する。
論文 参考訳(メタデータ) (2022-03-11T02:37:35Z) - Cut and Continuous Paste towards Real-time Deep Fall Detection [12.15584530151789]
本稿では,単一かつ小型の畳み込みニューラルネットワークを通じてフォールを検出するための,シンプルで効率的なフレームワークを提案する。
まず,人間の動きを1フレームで表現する画像合成手法を提案する。
推論ステップでは、入力フレームの平均値を推定することにより、実際の人間の動きを1つの画像で表現する。
論文 参考訳(メタデータ) (2022-02-22T06:07:16Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Online Body Schema Adaptation through Cost-Sensitive Active Learning [63.84207660737483]
この作業は、icubロボットシミュレータの7dofアームを使用して、シミュレーション環境で実行された。
コストに敏感な能動学習手法は最適な関節構成を選択するために用いられる。
その結果,コスト依存型能動学習は標準的な能動学習手法と同等の精度を示し,実行運動の約半分を減らした。
論文 参考訳(メタデータ) (2021-01-26T16:01:02Z) - Robust Ego and Object 6-DoF Motion Estimation and Tracking [5.162070820801102]
本稿では,動的多体視覚計測における高精度な推定と一貫した追跡性を実現するためのロバストな解を提案する。
セマンティック・インスタンスレベルのセグメンテーションと正確な光フロー推定の最近の進歩を活用して、コンパクトで効果的なフレームワークを提案する。
追従点の品質と運動推定精度を向上させる新しい定式化SE(3)運動と光流が導入された。
論文 参考訳(メタデータ) (2020-07-28T05:12:56Z) - Fast Modeling and Understanding Fluid Dynamics Systems with
Encoder-Decoder Networks [0.0]
本研究では,有限体積シミュレータを用いて,高精度な深層学習に基づくプロキシモデルを効率的に教えることができることを示す。
従来のシミュレーションと比較して、提案したディープラーニングアプローチはより高速なフォワード計算を可能にする。
深層学習モデルの重要物理パラメータに対する感度を定量化することにより、インバージョン問題を大きな加速で解くことができることを示す。
論文 参考訳(メタデータ) (2020-06-09T17:14:08Z) - Gaining a Sense of Touch. Physical Parameters Estimation using a Soft
Gripper and Neural Networks [3.0892724364965005]
ロボットグリップを用いた物体との直接相互作用の測定における深層学習アルゴリズムを用いた物理パラメータ推定に関する十分な研究はない。
本研究では、剛性係数の回帰をトレーニング可能なシステムを提案し、物理シミュレータ環境を用いて広範な実験を行った。
本システムでは,Yale OpenHandソフトグリップを用いて,指に装着した慣性測定ユニット(IMU)の読み値に基づいて,物体の硬さを確実に推定することができる。
論文 参考訳(メタデータ) (2020-03-02T11:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。