論文の概要: Semantic keypoint extraction for scanned animals using
multi-depth-camera systems
- arxiv url: http://arxiv.org/abs/2211.08634v1
- Date: Wed, 16 Nov 2022 03:06:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 16:15:27.781528
- Title: Semantic keypoint extraction for scanned animals using
multi-depth-camera systems
- Title(参考訳): マルチディフカメラシステムを用いたスキャンされた動物の意味的キーポイント抽出
- Authors: Raphael Falque and Teresa Vidal-Calleja and Alen Alempijevic
- Abstract要約: ポイントクラウドにおけるキーポイントアノテーションは、3D再構成、オブジェクト追跡、アライメントにおいて重要なタスクである。
農業の文脈では、家畜の自動化が条件評価や行動認識に向けて働くことが重要な課題である。
本稿では,キーポイント抽出を回帰問題として再構成することで,ポイントクラウドにおける意味キーポイントアノテーションの新たなアプローチを提案する。
本手法は,複数のハードウェア同期RGB-Dカメラの校正システムを用いて,移動牛のフィールドで収集したデータを用いて実験を行った。
- 参考スコア(独自算出の注目度): 2.513785998932353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keypoint annotation in point clouds is an important task for 3D
reconstruction, object tracking and alignment, in particular in deformable or
moving scenes. In the context of agriculture robotics, it is a critical task
for livestock automation to work toward condition assessment or behaviour
recognition. In this work, we propose a novel approach for semantic keypoint
annotation in point clouds, by reformulating the keypoint extraction as a
regression problem of the distance between the keypoints and the rest of the
point cloud. We use the distance on the point cloud manifold mapped into a
radial basis function (RBF), which is then learned using an encoder-decoder
architecture. Special consideration is given to the data augmentation specific
to multi-depth-camera systems by considering noise over the extrinsic
calibration and camera frame dropout. Additionally, we investigate
computationally efficient non-rigid deformation methods that can be applied to
animal point clouds. Our method is tested on data collected in the field, on
moving beef cattle, with a calibrated system of multiple hardware-synchronised
RGB-D cameras.
- Abstract(参考訳): ポイントクラウドにおけるキーポイントアノテーションは、3D再構成、オブジェクト追跡、アライメント、特に変形可能なシーンや移動シーンにおいて重要なタスクである。
農業ロボティクスの文脈では、家畜の自動化が条件評価や行動認識に向けて働くことが重要な課題である。
本研究では,キーポイント抽出を,キーポイントと他のポイントクラウドの距離の回帰問題として再検討することで,ポイントクラウドにおける意味的キーポイントアノテーションの新たなアプローチを提案する。
我々は、放射基底関数(RBF)に写像された点雲多様体上の距離を使い、エンコーダ・デコーダアーキテクチャを用いて学習する。
外部キャリブレーションとカメラフレームのドロップアウトによるノイズを考慮したマルチディフカメラシステムに特化したデータ拡張について,特に考察した。
さらに,動物点雲に適用可能な計算効率の高い非剛性変形法について検討した。
本手法は,複数のハードウェア同期rgb-dカメラのキャリブレーションシステムを用いて,現場で収集したデータを用いて実験を行った。
関連論文リスト
- Trainable Pointwise Decoder Module for Point Cloud Segmentation [12.233802912441476]
ポイントクラウドセグメンテーション(PCS)は、ポイントごとの予測を行い、ロボットや自動運転車が環境を理解することを可能にすることを目的としている。
後処理手法としてトレーニング可能なポイントワイズデコーダモジュール(PDM)を提案する。
また、データ拡張に仮想レンジ画像誘導コピー・ロータート・ペースト戦略を導入する。
論文 参考訳(メタデータ) (2024-08-02T19:29:35Z) - Track Initialization and Re-Identification for~3D Multi-View Multi-Object Tracking [12.389483990547223]
モノクロカメラからの2次元検出のみを用いた3次元多対象追跡(MOT)ソリューションを提案する。
我々は,複数のカメラから抽出した2次元検出と特徴を利用して,多目的フィルタリング密度をよりよく近似する。
論文 参考訳(メタデータ) (2024-05-28T21:36:16Z) - PosDiffNet: Positional Neural Diffusion for Point Cloud Registration in
a Large Field of View with Perturbations [27.45001809414096]
PosDiffNetは、3Dコンピュータビジョンにおけるポイントクラウド登録のモデルである。
ベルトラミフローに基づくグラフニューラル偏微分方程式(PDE)を用いて高次元特徴を求める。
我々は、点雲間のアライメントを容易にするために、高特徴類似度スコアから導かれる多レベル対応を用いる。
我々はPosDiffNetを複数の3Dポイントクラウドデータセット上で評価し、摂動を伴う広い視野でのポイントクラウド登録において、最先端(SOTA)性能を達成することを検証した。
論文 参考訳(メタデータ) (2024-01-06T08:58:15Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Ponder: Point Cloud Pre-training via Neural Rendering [93.34522605321514]
本稿では,識別可能なニューラルエンコーダによる点雲表現の自己教師型学習手法を提案する。
学習したポイントクラウドは、3D検出やセグメンテーションといったハイレベルなレンダリングタスクだけでなく、3D再構成や画像レンダリングといった低レベルなタスクを含む、さまざまなダウンストリームタスクに簡単に統合できる。
論文 参考訳(メタデータ) (2022-12-31T08:58:39Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - Associate-3Ddet: Perceptual-to-Conceptual Association for 3D Point Cloud
Object Detection [64.2159881697615]
3Dポイント雲からの物体検出は依然として難しい課題だが、最近の研究ではディープラーニング技術によって封筒を推し進めている。
本稿では,特徴表現の堅牢性を高めるために,ドメイン適応のようなアプローチを提案する。
我々の単純で効果的なアプローチは、3Dポイントクラウドオブジェクト検出の性能を根本的に向上させ、最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-06-08T05:15:06Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - View Invariant Human Body Detection and Pose Estimation from Multiple
Depth Sensors [0.7080990243618376]
本稿では,複数地点のクラウドソースを用いて,エンドツーエンドの多対人3Dポーズ推定ネットワークであるPoint R-CNNを提案する。
我々は、個別のカメラ故障、様々なターゲットの外観、複雑な散らかったシーンなど、現実の課題をシミュレートする広範囲な実験を行った。
一方、私たちのエンドツーエンドネットワークは、カスケードされた最先端モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2020-05-08T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。