論文の概要: GDN: A Coarse-To-Fine (C2F) Representation for End-To-End 6-DoF Grasp
Detection
- arxiv url: http://arxiv.org/abs/2010.10695v4
- Date: Wed, 11 Nov 2020 07:00:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:34:42.375211
- Title: GDN: A Coarse-To-Fine (C2F) Representation for End-To-End 6-DoF Grasp
Detection
- Title(参考訳): GDN: エンド・ツー・エンド6-DoFグラフ検出のための粗いフィン(C2F)表現
- Authors: Kuang-Yu Jeng, Yueh-Cheng Liu, Zhe Yu Liu, Jen-Wei Wang, Ya-Liang
Chang, Hung-Ting Su, and Winston H. Hsu
- Abstract要約: 本稿では,GDN(Grasp Detection Network)を提案する。
これまでの2段階のアプローチと比較して、アーキテクチャは少なくとも20倍高速です。
本稿では,回転と遷移の誤差を考慮した新しいAPベースの計量法を提案する。
- 参考スコア(独自算出の注目度): 23.480036081293242
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We proposed an end-to-end grasp detection network, Grasp Detection Network
(GDN), cooperated with a novel coarse-to-fine (C2F) grasp representation design
to detect diverse and accurate 6-DoF grasps based on point clouds. Compared to
previous two-stage approaches which sample and evaluate multiple grasp
candidates, our architecture is at least 20 times faster. It is also 8% and 40%
more accurate in terms of the success rate in single object scenes and the
complete rate in clutter scenes, respectively. Our method shows superior
results among settings with different number of views and input points.
Moreover, we propose a new AP-based metric which considers both rotation and
transition errors, making it a more comprehensive evaluation tool for grasp
detection models.
- Abstract(参考訳): 本研究では,多様で高精度な6自由度把握を検出するために,新しいc2f把持表現設計と協調して,エンド・ツー・エンド把持検出ネットワークgdn(grab detection network)を提案する。
複数の把握候補をサンプリングし評価する従来の2段階アプローチと比較して、アーキテクチャは少なくとも20倍高速である。
また、シングルオブジェクトシーンにおける成功率と、散らかったシーンにおける完全な成功率の点で、8%と40%も正確である。
提案手法は,ビュー数や入力ポイントの異なる設定において,優れた結果を示す。
さらに、回転誤差と遷移誤差の両方を考慮し、検出モデルを把握するためのより包括的な評価ツールであるAPベースの新しい指標を提案する。
関連論文リスト
- PETDet: Proposal Enhancement for Two-Stage Fine-Grained Object Detection [26.843891792018447]
PETDet (Proposal Enhancement for Two-stage fine-fine object detection) は, 2段階FGOD法において, サブタスクをよりよく扱うために提案される。
動的ラベル割り当てと注意に基づく分解により, アンカーフリー品質指向提案ネットワーク(QOPN)を提案する。
A novel Adaptive Recognition Loss (ARL)は、R-CNNの責任者が高品質な提案に焦点を合わせるためのガイダンスを提供する。
論文 参考訳(メタデータ) (2023-12-16T18:04:56Z) - DFIL: Deepfake Incremental Learning by Exploiting Domain-invariant
Forgery Clues [32.045504965382015]
現在のディープフェイク検出モデルは、大規模なデータセットでトレーニングすることで、一般的に偽画像を認識することができる。
検出モデルの精度は、データ分布の違いにより、新しいディープフェイク法によって生成された画像に対して著しく低下する。
本稿では,ディープフェイク検出モデルの一般化を改善するための新たなインクリメンタルラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T07:02:26Z) - GMSF: Global Matching Scene Flow [17.077134204089536]
我々は点雲からのシーンフロー推定の課題に取り組む。
ソースとターゲットポイントクラウドが与えられた場合、目的はソースポイントクラウドの各ポイントからターゲットへの変換を推定することである。
そこで本研究では,この問題に対処するため,より単純なワンショット・ワンショット・グローバルマッチングを提案する。
論文 参考訳(メタデータ) (2023-05-27T10:04:21Z) - Extending One-Stage Detection with Open-World Proposals [8.492340530784697]
完全畳み込み型一段検出ネットワークFCOSは,新しい授業で最大6%のOWP性能を向上できることを示す。
新たな授業では2段階の手法が6%悪くなったが,共同でOWPと分類を最適化した場合,FCOSは2%しか低下しないことがわかった。
論文 参考訳(メタデータ) (2022-01-07T02:29:09Z) - GKNet: grasp keypoint network for grasp candidates detection [15.214390498300101]
本稿では、キーポイント検出として扱うことにより、検出を把握するための異なるアプローチを提案する。
ディープネットワークは、各グリップ候補を一対のキーポイントとして検出し、コーナーポイントの三重項や四重項ではなく、グリップ表現g = x, y, w,thetaTに変換する。
論文 参考訳(メタデータ) (2021-06-16T00:34:55Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - City-scale Scene Change Detection using Point Clouds [71.73273007900717]
2つの異なる時間にカメラを設置して撮影した画像を用いて都市の構造変化を検出する手法を提案する。
変化検出のための2点雲の直接比較は、不正確な位置情報のため理想的ではない。
この問題を回避するために,ポイントクラウド上での深層学習に基づく非厳密な登録を提案する。
提案手法は,視点や照明の違いがあっても,シーン変化を効果的に検出できることを示す。
論文 参考訳(メタデータ) (2021-03-26T08:04:13Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - Diverse Knowledge Distillation for End-to-End Person Search [81.4926655119318]
人物検索は、画像ギャラリーから特定の人物をローカライズし識別することを目的としている。
最近の手法は2つのグループ、すなわち2段階とエンドツーエンドのアプローチに分類できる。
ボトルネックを解消するために、多様な知識蒸留を備えたシンプルで強力なエンドツーエンドネットワークを提案します。
論文 参考訳(メタデータ) (2020-12-21T09:04:27Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。