論文の概要: PreAfford: Universal Affordance-Based Pre-Grasping for Diverse Objects and Environments
- arxiv url: http://arxiv.org/abs/2404.03634v1
- Date: Thu, 4 Apr 2024 17:54:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 13:42:53.606372
- Title: PreAfford: Universal Affordance-Based Pre-Grasping for Diverse Objects and Environments
- Title(参考訳): PreAfford: 分散オブジェクトと環境のためのユニバーサルアクダクタンスベースのプレグラッピング
- Authors: Kairui Ding, Boyuan Chen, Ruihai Wu, Yuyang Li, Zongzheng Zhang, Huan-ang Gao, Siqi Li, Yixin Zhu, Guyue Zhou, Hao Dong, Hao Zhao,
- Abstract要約: 二本指グリップを用いた非重力物体のロボット操作は重要な課題である。
従来のプレグラスピング技術は、オブジェクトの再配置とテーブルエッジのような外部のエイズを活用するもので、オブジェクトのカテゴリやシーン間の適応性が欠如している。
適応性を高めるために,ポイントレベルのアベイランス表現とリレートレーニングアプローチを利用する,新しいプレグラスピング計画フレームワークであるPreAffordを紹介する。
- 参考スコア(独自算出の注目度): 37.010198898760365
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic manipulation of ungraspable objects with two-finger grippers presents significant challenges due to the paucity of graspable features, while traditional pre-grasping techniques, which rely on repositioning objects and leveraging external aids like table edges, lack the adaptability across object categories and scenes. Addressing this, we introduce PreAfford, a novel pre-grasping planning framework that utilizes a point-level affordance representation and a relay training approach to enhance adaptability across a broad range of environments and object types, including those previously unseen. Demonstrated on the ShapeNet-v2 dataset, PreAfford significantly improves grasping success rates by 69% and validates its practicality through real-world experiments. This work offers a robust and adaptable solution for manipulating ungraspable objects.
- Abstract(参考訳): 2本のフィンガーグリップパーを持つ非重力物体のロボット操作は、つかみやすい特徴の不明瞭さによる重要な課題を呈する一方、従来のプレグラスピング技術は、オブジェクトの再配置に依存し、テーブルエッジのような外部のエイズを活用するが、オブジェクトカテゴリやシーン間の適応性が欠如している。
このような問題に対処するために,P PreAfford はポイントレベルのアベイランス表現とリレートレーニングアプローチを利用して,これまで見つからなかった幅広い環境やオブジェクトタイプへの適応性を向上する,新しいプレグラッピング計画フレームワークである。
ShapeNet-v2データセットで実証されたPreAffordは、成功率の把握を69%改善し、実世界の実験を通じてその実用性を検証する。
この作業は、不安定なオブジェクトを操作するための堅牢で適応可能なソリューションを提供する。
関連論文リスト
- Grasp Multiple Objects with One Hand [44.18611368961791]
MultiGraspは、テーブルトップ上のデキスタラスな多指ロボットハンドを用いて、複数の物体をつかむための新しい2段階のアプローチである。
我々の実験は、主に二重物体の把握に焦点を合わせ、44.13%の成功率を達成した。
このフレームワークは、推論速度を犠牲にして2つ以上のオブジェクトをつかむ可能性を実証している。
論文 参考訳(メタデータ) (2023-10-24T08:01:12Z) - Cycle Consistency Driven Object Discovery [75.60399804639403]
本研究では,シーンの各オブジェクトが異なるスロットに関連付けられなければならない制約を明示的に最適化する手法を提案する。
これらの一貫性目標を既存のスロットベースのオブジェクト中心手法に統合することにより、オブジェクト発見性能を大幅に改善することを示す。
提案手法は,オブジェクト発見を改善するだけでなく,下流タスクのよりリッチな機能も提供することを示唆している。
論文 参考訳(メタデータ) (2023-06-03T21:49:06Z) - FS6D: Few-Shot 6D Pose Estimation of Novel Objects [116.34922994123973]
6Dオブジェクトポーズ推定ネットワークは、多数のオブジェクトインスタンスにスケールする能力に制限がある。
本研究では,未知の物体の6次元ポーズを,余分な訓練を伴わずにいくつかの支援ビューで推定する。
論文 参考訳(メタデータ) (2022-03-28T10:31:29Z) - Compositional Multi-Object Reinforcement Learning with Linear Relation
Networks [38.59852895970774]
我々は、固定されたマルチオブジェクト設定で操作タスクを学習し、オブジェクトの数が変化するとパフォーマンスが低下することなく、このスキルをゼロショットの外挿できるモデルに焦点を当てる。
我々のアプローチは、$K$で線形にスケールするので、エージェントは新しいオブジェクト番号にゼロショットを外挿して一般化することができる。
論文 参考訳(メタデータ) (2022-01-31T17:53:30Z) - AdaAfford: Learning to Adapt Manipulation Affordance for 3D Articulated
Objects via Few-shot Interactions [13.802675708793014]
キャビネット、ドア、蛇口などの3D音声による物体の認識と相互作用は、将来のホームアシストロボットに特別な課題をもたらす。
我々はAdaAffordという名の新しいフレームワークを提案し、より正確なインスタンス固有の後付けに手軽さを迅速に適応するために、ごく少数のテスト時間インタラクションを実行することを学習する。
論文 参考訳(メタデータ) (2021-12-01T03:00:05Z) - Self-Supervision by Prediction for Object Discovery in Videos [62.87145010885044]
本稿では,この予測タスクを自己監督として利用し,画像シーケンス表現のための新しいオブジェクト中心モデルを構築する。
私たちのフレームワークは、手動アノテーションや事前トレーニングされたネットワークを使わずにトレーニングできます。
最初の実験では、提案されたパイプラインがオブジェクト中心のビデオ予測への有望なステップであることを確認した。
論文 参考訳(メタデータ) (2021-03-09T19:14:33Z) - Deep Bingham Networks: Dealing with Uncertainty and Ambiguity in Pose
Estimation [74.76155168705975]
Deep Bingham Networks (DBN)は、3Dデータに関するほぼすべての実生活アプリケーションで発生するポーズ関連の不確実性と曖昧性を扱うことができる。
DBNは、(i)異なる分布モードを生成できる多仮説予測ヘッドにより、アートダイレクトポーズ回帰ネットワークの状態を拡張する。
トレーニング中のモードや後方崩壊を回避し,数値安定性を向上させるための新しいトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-12-20T19:20:26Z) - Combining Semantic Guidance and Deep Reinforcement Learning For
Generating Human Level Paintings [22.889059874754242]
脳卒中に基づく非フォトリアリスティック画像の生成は、コンピュータビジョンコミュニティにおいて重要な問題である。
従来の手法は、前景オブジェクトの位置、規模、正当性にほとんど変化のないデータセットに限られていた。
本研究では,1)前景と背景の筆画の区別を学習するための2段階の塗装手順を備えたセマンティック・ガイダンス・パイプラインを提案する。
論文 参考訳(メタデータ) (2020-11-25T09:00:04Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。