論文の概要: Learning Object Depth from Camera Motion and Video Object Segmentation
- arxiv url: http://arxiv.org/abs/2007.05676v3
- Date: Fri, 18 Dec 2020 17:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 13:37:04.112642
- Title: Learning Object Depth from Camera Motion and Video Object Segmentation
- Title(参考訳): カメラモーションとビデオオブジェクトセグメンテーションから物体深度を学習する
- Authors: Brent A. Griffin and Jason J. Corso
- Abstract要約: 本稿では,カメラの動きを測定することによって,分割対象の深度を推定する学習の課題に対処する。
我々は、カメラとオブジェクト間の距離の変化に対してスケールされた人工的なオブジェクトセグメンテーションを作成し、そのネットワークは、セグメンテーションエラーがあっても、オブジェクトの深さを推定することを学ぶ。
ロボットカメラを用いて、YCBデータセットから物体を検知するためのアプローチと、運転中の障害物を見つけるための車両カメラとのアプローチを実証する。
- 参考スコア(独自算出の注目度): 43.81711115175958
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video object segmentation, i.e., the separation of a target object from
background in video, has made significant progress on real and challenging
videos in recent years. To leverage this progress in 3D applications, this
paper addresses the problem of learning to estimate the depth of segmented
objects given some measurement of camera motion (e.g., from robot kinematics or
vehicle odometry). We achieve this by, first, introducing a diverse, extensible
dataset and, second, designing a novel deep network that estimates the depth of
objects using only segmentation masks and uncalibrated camera movement. Our
data-generation framework creates artificial object segmentations that are
scaled for changes in distance between the camera and object, and our network
learns to estimate object depth even with segmentation errors. We demonstrate
our approach across domains using a robot camera to locate objects from the YCB
dataset and a vehicle camera to locate obstacles while driving.
- Abstract(参考訳): ビデオオブジェクトのセグメンテーション(つまり、ビデオ中の背景からターゲットオブジェクトを分離する)は、近年、現実的で挑戦的なビデオで大きな進歩を遂げている。
この進歩を3Dアプリケーションで活用するために、カメラの動き(例えば、ロボットキネマティクスや車両のオドメトリー)の測定により、セグメント化された物体の深さを推定する学習の課題に対処する。
まず、多様な拡張可能なデータセットを導入し、次に、セグメンテーションマスクと補正されていないカメラの動きのみを用いてオブジェクトの深さを推定する新しいディープネットワークを設計する。
データ生成フレームワークは、カメラとオブジェクト間の距離の変化をスケールする人工オブジェクトセグメンテーションを作成し、ネットワークはセグメンテーションエラーであってもオブジェクトの深さを推定することを学習します。
我々は,ycbデータセットの物体をロボットカメラで検出し,運転中の障害物を車両カメラで検出する手法を実証する。
関連論文リスト
- DepthMOT: Depth Cues Lead to a Strong Multi-Object Tracker [4.65004369765875]
各オブジェクトを正確に区別することは、MOTアルゴリズムの基本的な目標である。
本稿では, (i) シーン深度マップのテクトitend-to-endの検出と推定, (ii) カメラのポーズ推定により不規則なカメラの動きを補正するtextitDepthMOTを提案する。
論文 参考訳(メタデータ) (2024-04-08T13:39:12Z) - LocaliseBot: Multi-view 3D object localisation with differentiable
rendering for robot grasping [9.690844449175948]
オブジェクトのポーズ推定に重点を置いています。
このアプローチは,オブジェクトの複数ビュー,それらの視点におけるカメラのパラメータ,オブジェクトの3次元CADモデルという3つの情報に依存している。
推定対象のポーズが99.65%の精度で真理把握候補を把握できることが示される。
論文 参考訳(メタデータ) (2023-11-14T14:27:53Z) - Semi-Weakly Supervised Object Kinematic Motion Prediction [56.282759127180306]
3Dオブジェクトが与えられた場合、運動予測は移動部と対応する運動パラメータを識別することを目的としている。
階層的部分分割と移動部パラメータのマップを学習するグラフニューラルネットワークを提案する。
ネットワーク予測は、擬似ラベル付き移動情報を持つ大規模な3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2023-03-31T02:37:36Z) - InstMove: Instance Motion for Object-centric Video Segmentation [70.16915119724757]
本研究では,オブジェクト中心ビデオのインスタンス・モーションを表すInstMoveとインスタンス・レベル・モーションについて検討する。
InstMoveは主に画像特徴の埋め込みのないインスタンスレベルのモーション情報に依存している。
数行のコードだけで、InstMoveは3つの異なるビデオセグメンテーションタスクのために、現在のSOTAメソッドに統合できる。
論文 参考訳(メタデータ) (2023-03-14T17:58:44Z) - Self-Supervised Unseen Object Instance Segmentation via Long-Term Robot
Interaction [23.572104156617844]
本研究では,オブジェクトとの長期的なインタラクションを活用することで,オブジェクトのインスタンス分割を現実の世界で改善するための新しいロボットシステムを提案する。
本システムは,ロボットのプッシュ動作の後,オブジェクトのセグメント化の決定に反する。
システムによって収集された実世界データを用いて合成データに基づいて訓練されたセグメンテーションネットワークを微調整することで,システムの有用性を実証する。
論文 参考訳(メタデータ) (2023-02-07T23:11:29Z) - 3D Object Aided Self-Supervised Monocular Depth Estimation [5.579605877061333]
本研究では,モノクロ3次元物体検出による動的物体の動きに対処する新しい手法を提案する。
具体的には、まず画像中の3Dオブジェクトを検出し、検出されたオブジェクトのポーズと動的ピクセル間の対応性を構築する。
このようにして、各ピクセルの深さは有意義な幾何学モデルによって学習することができる。
論文 参考訳(メタデータ) (2022-12-04T08:52:33Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - NeuralDiff: Segmenting 3D objects that move in egocentric videos [92.95176458079047]
観測された3次元シーンを静的な背景と動的前景に分解する問題について検討する。
このタスクは、古典的な背景の減算問題を連想させるが、静的でダイナミックなシーンの全ての部分が大きな動きを生じさせるため、非常に難しい。
特に、自我中心のビデオについて検討し、動的コンポーネントを観察・移動するオブジェクトとアクターにさらに分離する。
論文 参考訳(メタデータ) (2021-10-19T12:51:35Z) - DyStaB: Unsupervised Object Segmentation via Dynamic-Static
Bootstrapping [72.84991726271024]
我々は,コヒーレントなシーン全体を移動しているように見えるシーンの画像の一部を検出し,分割するための教師なしの手法について述べる。
提案手法はまず,セグメント間の相互情報を最小化することにより,運動場を分割する。
セグメントを使用してオブジェクトモデルを学習し、静的なイメージの検出に使用することができる。
論文 参考訳(メタデータ) (2020-08-16T22:05:13Z) - 3D Object Segmentation for Shelf Bin Picking by Humanoid with Deep
Learning and Occupancy Voxel Grid Map [27.312696750923926]
複数のカメラアングルとボクセルグリッドマップを用いて,対象物を3次元に分割する手法を開発した。
狭い棚箱内の対象物に対するピッキング・タスク実験により,本手法の評価を行った。
論文 参考訳(メタデータ) (2020-01-15T16:20:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。