論文の概要: Point Anywhere: Directed Object Estimation from Omnidirectional Images
- arxiv url: http://arxiv.org/abs/2308.01010v1
- Date: Wed, 2 Aug 2023 08:32:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 13:41:08.485941
- Title: Point Anywhere: Directed Object Estimation from Omnidirectional Images
- Title(参考訳): 任意の点:全方位画像からの物体推定
- Authors: Nanami Kotani and Asako Kanezaki
- Abstract要約: 本研究では、全方位カメラを用いて、指さしアームのユーザ/オブジェクト位置制約と左右方向制約を除去する手法を提案する。
提案手法は,等方形画像から興味領域を抽出し,高精度な推定を可能にする。
- 参考スコア(独自算出の注目度): 10.152838128195468
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the intuitive instruction methods in robot navigation is a pointing
gesture. In this study, we propose a method using an omnidirectional camera to
eliminate the user/object position constraint and the left/right constraint of
the pointing arm. Although the accuracy of skeleton and object detection is low
due to the high distortion of equirectangular images, the proposed method
enables highly accurate estimation by repeatedly extracting regions of interest
from the equirectangular image and projecting them onto perspective images.
Furthermore, we found that training the likelihood of the target object in
machine learning further improves the estimation accuracy.
- Abstract(参考訳): ロボットナビゲーションにおける直感的な指示方法の1つはポインティングジェスチャである。
本研究では,全方位カメラを用いたポインティングアームのユーザ/オブジェクト位置制約と左右方向の制約を除去する手法を提案する。
等方形画像の歪みが大きいため,骨格と物体検出の精度は低いが,本手法では,等方形画像から興味領域を抽出し,視点画像に投影することにより,高精度な推定が可能となる。
さらに,機械学習における対象オブジェクトの確率のトレーニングにより,推定精度がさらに向上することが分かった。
関連論文リスト
- Visually Guided Object Grasping [19.71383212064634]
直交ステレオリグを用いた3次元射影空間における2つの固体間のアライメントの把握方法を示す。
本稿では,視覚サーボアルゴリズムの性能解析と,このようなアプローチで期待できる把握精度の解析を行う。
論文 参考訳(メタデータ) (2023-11-21T15:08:17Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Improving Online Lane Graph Extraction by Object-Lane Clustering [106.71926896061686]
本稿では,局所レーングラフの推定精度を向上させるために,アーキテクチャと損失の定式化を提案する。
提案手法は,中心線をクラスタ中心とすることで,対象を中心線に割り当てることを学ぶ。
提案手法は既存の3次元オブジェクト検出手法の出力を用いて,大幅な性能向上を実現することができることを示す。
論文 参考訳(メタデータ) (2023-07-20T15:21:28Z) - Rigidity-Aware Detection for 6D Object Pose Estimation [60.88857851869196]
最近の6Dオブジェクトのポーズ推定方法は、最初にオブジェクト検出を使用して2Dバウンディングボックスを取得し、実際にポーズを回帰する。
本研究では,6次元ポーズ推定において対象物体が剛性であるという事実を利用した剛性認識検出手法を提案する。
このアプローチの成功の鍵となるのは可視性マップであり、これは境界ボックス内の各ピクセルとボックス境界の間の最小障壁距離を用いて構築することを提案する。
論文 参考訳(メタデータ) (2023-03-22T09:02:54Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Object-Based Visual Camera Pose Estimation From Ellipsoidal Model and
3D-Aware Ellipse Prediction [2.016317500787292]
本稿では,1枚の画像から初期カメラのポーズ推定を行う手法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
実験により,提案手法により計算結果の精度が著しく向上することが確認された。
論文 参考訳(メタデータ) (2022-03-09T10:00:52Z) - 3D-Aware Ellipse Prediction for Object-Based Camera Pose Estimation [3.103806775802078]
視聴条件に頑健な粗いカメラポーズ計算法を提案する。
観察条件に関係なく、物体を確実に検出する深層学習技術を活用する。
論文 参考訳(メタデータ) (2021-05-24T18:40:18Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - Tiny-YOLO object detection supplemented with geometrical data [0.0]
本研究では,シーン形状に関する事前知識の助けを借りて,検出精度(mAP)を向上させる手法を提案する。
我々は自律型ロボットに注目するので、ロボットの寸法とカメラの傾斜角を考えると、入力フレームの各ピクセルの空間スケールを予測することができる。
論文 参考訳(メタデータ) (2020-08-05T14:45:19Z) - Robust 6D Object Pose Estimation by Learning RGB-D Features [59.580366107770764]
本稿では、この局所最適問題を解くために、回転回帰のための離散連続的な新しい定式化を提案する。
我々はSO(3)の回転アンカーを均一にサンプリングし、各アンカーから目標への制約付き偏差を予測し、最適な予測を選択するための不確実性スコアを出力する。
LINEMOD と YCB-Video の2つのベンチマーク実験により,提案手法が最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T06:24:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。