論文の概要: Depth-Adapted CNN for RGB-D cameras
- arxiv url: http://arxiv.org/abs/2009.09976v2
- Date: Wed, 23 Sep 2020 09:45:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 05:18:46.848374
- Title: Depth-Adapted CNN for RGB-D cameras
- Title(参考訳): RGB-Dカメラ用深度適応CNN
- Authors: Zongwei Wu, Guillaume Allibert, Christophe Stolz, Cedric Demonceaux
- Abstract要約: 従来の2次元畳み込みニューラルネットワーク(CNN)は線形フィルタを適用して入力画像から特徴を抽出する。
我々は,RGB-Dカメラの奥行き情報を用いて,従来のRGB CNN手法の改善に取り組み,その課題を解決した。
本稿では,CNNアーキテクチャにおける測光情報と幾何情報の両方を記述するための,新規で汎用的な手順を提案する。
- 参考スコア(独自算出の注目度): 0.3727773051465455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional 2D Convolutional Neural Networks (CNN) extract features from an
input image by applying linear filters. These filters compute the spatial
coherence by weighting the photometric information on a fixed neighborhood
without taking into account the geometric information. We tackle the problem of
improving the classical RGB CNN methods by using the depth information provided
by the RGB-D cameras. State-of-the-art approaches use depth as an additional
channel or image (HHA) or pass from 2D CNN to 3D CNN. This paper proposes a
novel and generic procedure to articulate both photometric and geometric
information in CNN architecture. The depth data is represented as a 2D offset
to adapt spatial sampling locations. The new model presented is invariant to
scale and rotation around the X and the Y axis of the camera coordinate system.
Moreover, when depth data is constant, our model is equivalent to a regular
CNN. Experiments of benchmarks validate the effectiveness of our model.
- Abstract(参考訳): 従来の2次元畳み込みニューラルネットワーク(CNN)は線形フィルタを用いて入力画像から特徴を抽出する。
これらのフィルタは、幾何学的情報を考慮せずに固定近傍の測光情報を重み付けすることにより、空間的コヒーレンスを計算する。
本稿では、rgb-dカメラの奥行き情報を用いて、従来のrgb cnn手法を改善する問題に取り組む。
最先端のアプローチでは、ディープを追加のチャネルまたはイメージ(HHA)として、あるいは2D CNNから3D CNNに渡す。
本稿では,CNNアーキテクチャにおける測光情報と幾何情報の両方を記述するための,新規で汎用的な手順を提案する。
深度データは2次元オフセットとして表現され、空間サンプリング位置に適応する。
提示された新しいモデルは、カメラ座標系のXとY軸の周囲のスケールと回転に不変である。
さらに、深度データが一定であれば、我々のモデルは通常のCNNと等価である。
ベンチマーク実験はモデルの有効性を検証する。
関連論文リスト
- GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - Detecting Humans in RGB-D Data with CNNs [14.283154024458739]
深度画像の特徴に基づく新しい融合手法を提案する。
また、3つのチャネルに深度画像をエンコードするだけでなく、分類のための情報も強化する新しい深度符号化方式を提案する。
論文 参考訳(メタデータ) (2022-07-17T03:17:09Z) - Depth-Adapted CNNs for RGB-D Semantic Segmentation [2.341385717236931]
我々は、RGB畳み込みニューラルネットワーク(CNN)に深度情報を組み込む新しい枠組みを提案する。
具体的には、Z-ACNは2次元奥行き適応オフセットを生成し、RGB画像の特徴抽出を誘導する低レベル特徴に完全に制約される。
生成されたオフセットでは、基本的なCNN演算子を置き換えるために、2つの直感的で効果的な操作を導入する。
論文 参考訳(メタデータ) (2022-06-08T14:59:40Z) - Uni6D: A Unified CNN Framework without Projection Breakdown for 6D Pose
Estimation [21.424035166174352]
最先端のアプローチでは、通常、異なるバックボーンを使用してRGBと深度画像の特徴を抽出する。
2つの独立したバックボーンを使用する重要な理由は、"投射分解"の問題である。
入力としてRGB-D画像とともに、余分なUVデータを明示的に取り出す、シンプルで効果的なUnixDを提案する。
論文 参考訳(メタデータ) (2022-03-28T07:05:27Z) - GCNDepth: Self-supervised Monocular Depth Estimation based on Graph
Convolutional Network [11.332580333969302]
この研究は、深度マップの量的および質的な理解を高めるために、一連の改善を伴う新しいソリューションをもたらす。
グラフ畳み込みネットワーク(GCN)は、非ユークリッドデータ上の畳み込みを処理でき、位相構造内の不規則な画像領域に適用することができる。
提案手法は,公的なKITTIおよびMake3Dデータセットに対して,高い予測精度で89%の精度で同等かつ有望な結果を与える。
論文 参考訳(メタデータ) (2021-12-13T16:46:25Z) - Keypoint Message Passing for Video-based Person Re-Identification [106.41022426556776]
ビデオベースの人物再識別(re-ID)は、異なるカメラで捉えた人々のビデオスニペットをマッチングすることを目的とした、視覚監視システムにおいて重要な技術である。
既存の手法は主に畳み込みニューラルネットワーク(CNN)に基づいており、そのビルディングブロックは近隣のピクセルを一度に処理するか、あるいは3D畳み込みが時間情報のモデル化に使用される場合、人の動きによって生じるミスアライメントの問題に悩まされる。
本稿では,人間指向グラフ法を用いて,通常の畳み込みの限界を克服することを提案する。具体的には,人手指のキーポイントに位置する特徴を抽出し,時空間グラフとして接続する。
論文 参考訳(メタデータ) (2021-11-16T08:01:16Z) - OSLO: On-the-Sphere Learning for Omnidirectional images and its
application to 360-degree image compression [59.58879331876508]
全方向画像の表現モデルの学習について検討し、全方向画像の深層学習モデルで使用される数学的ツールを再定義するために、HEALPixの球面一様サンプリングの特性を利用することを提案する。
提案したオン・ザ・スフィア・ソリューションは、等方形画像に適用された類似の学習モデルと比較して、13.7%のビットレートを節約できる圧縮ゲインを向上させる。
論文 参考訳(メタデータ) (2021-07-19T22:14:30Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - PCLs: Geometry-aware Neural Reconstruction of 3D Pose with Perspective
Crop Layers [111.55817466296402]
我々は、カメラ幾何学に基づく関心領域の視点作物であるパースペクティブ・クロップ・レイヤ(PCL)を紹介する。
PCLは、エンドツーエンドのトレーニングと基礎となるニューラルネットワークのパラメータ数を残しながら、位置依存的な視点効果を決定論的に除去する。
PCLは、既存の3D再構成ネットワークを幾何学的に認識することで、容易に精度を向上させる手段を提供する。
論文 参考訳(メタデータ) (2020-11-27T08:48:43Z) - How semantic and geometric information mutually reinforce each other in
ToF object localization [19.47618043504105]
本研究では,光の時間(ToF)センサによって提供される強度・深度情報画像から3Dオブジェクトをローカライズする手法を提案する。
提案手法は,従来のCNNアーキテクチャと比較して,分割と局所化の精度を著しく向上する。
論文 参考訳(メタデータ) (2020-08-27T09:13:26Z) - Local Grid Rendering Networks for 3D Object Detection in Point Clouds [98.02655863113154]
CNNは強力だが、全点の雲を高密度の3Dグリッドに酸化した後、点データに直接畳み込みを適用するのは計算コストがかかる。
入力点のサブセットの小さな近傍を低解像度の3Dグリッドに独立してレンダリングする,新しい,原理化されたローカルグリッドレンダリング(LGR)演算を提案する。
ScanNetとSUN RGB-Dデータセットを用いた3次元オブジェクト検出のためのLGR-Netを検証する。
論文 参考訳(メタデータ) (2020-07-04T13:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。