論文の概要: Point Cloud Color Constancy
- arxiv url: http://arxiv.org/abs/2111.11280v1
- Date: Mon, 22 Nov 2021 15:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 20:27:24.686596
- Title: Point Cloud Color Constancy
- Title(参考訳): 点雲色コンテンシー
- Authors: Xiaoyan Xing, Yanlin Qian, Sibo Feng, Yuhan Dong, Jiri Matas
- Abstract要約: 点雲を利用した照明色度推定アルゴリズムである点雲色濃度について述べる。
提案手法は単純かつ高速で、16*16サイズの入力しか必要とせず,500fps以上の速度で到達する。
- 参考スコア(独自算出の注目度): 40.053993470262654
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present Point Cloud Color Constancy, in short PCCC, an
illumination chromaticity estimation algorithm exploiting a point cloud. We
leverage the depth information captured by the time-of-flight (ToF) sensor
mounted rigidly with the RGB sensor, and form a 6D cloud where each point
contains the coordinates and RGB intensities, noted as (x,y,z,r,g,b). PCCC
applies the PointNet architecture to the color constancy problem, deriving the
illumination vector point-wise and then making a global decision about the
global illumination chromaticity. On two popular RGB-D datasets, which we
extend with illumination information, as well as on a novel benchmark, PCCC
obtains lower error than the state-of-the-art algorithms. Our method is simple
and fast, requiring merely 16*16-size input and reaching speed over 500 fps,
including the cost of building the point cloud and net inference.
- Abstract(参考訳): 本稿では,ポイントクラウドを利用する照明色度推定アルゴリズムであるpoint cloud color constancy(pccc)を提案する。
我々は,rgbセンサに厳格に装着されたtime-of(tof)センサで取得した深度情報を活用し,各点が座標とrgb強度(x,y,z,r,g,b)を含む6dクラウドを形成する。
pcccは、カラーコンテンシー問題にポイントネットアーキテクチャを適用し、点滅ベクトルを点滅的に導出し、大域的な光彩度について大域的に決定する。
照明情報とともに拡張する2つのRGB-Dデータセットと、新しいベンチマークでは、PCCCは最先端のアルゴリズムよりも低い誤差を得る。
提案手法は単純かつ高速で、16*16サイズの入力しか必要とせず,500fps以上の速度で到達する。
関連論文リスト
- RGB2Point: 3D Point Cloud Generation from Single RGB Images [6.969876907441548]
RGB2Pointは、Transformerをベースにした3Dポイントクラウド生成のための、未提示のシングルビューRGBイメージである。
本実装では,SOTA拡散モデルよりも15,133倍高速に結果を生成する。
論文 参考訳(メタデータ) (2024-07-20T21:06:33Z) - GlORIE-SLAM: Globally Optimized RGB-only Implicit Encoding Point Cloud SLAM [53.6402869027093]
フレキシブルなニューラルポイントクラウド表現シーンを用いたRGBのみの高密度SLAMシステムを提案する。
また,単分子深度とともに暗黙のポーズと深さを最適化する新しいDSPO層を導入する。
論文 参考訳(メタデータ) (2024-03-28T16:32:06Z) - Poster: Making Edge-assisted LiDAR Perceptions Robust to Lossy Point
Cloud Compression [0.0]
損失圧縮による知覚性能損失を軽減するため,LiDAR点雲の品質を向上するアルゴリズムを提案する。
既存の画像アルゴリズムと比較して,距離画像から点雲を再構成した場合の定性的な結果が得られた。
論文 参考訳(メタデータ) (2023-09-08T18:34:48Z) - Attentive Multimodal Fusion for Optical and Scene Flow [24.08052492109655]
既存の方法は通常、RGB画像のみに依存するか、後段のモダリティを融合させる。
本稿では,センサモード間の早期情報融合を可能にするFusionRAFTという新しいディープニューラルネットワーク手法を提案する。
提案手法は,RGB画像に影響を及ぼすノイズや低照度条件の存在下での堅牢性の向上を示す。
論文 参考訳(メタデータ) (2023-07-28T04:36:07Z) - GQE-Net: A Graph-based Quality Enhancement Network for Point Cloud Color
Attribute [51.4803148196217]
本稿では,点雲の色歪みを低減するため,グラフベースの品質向上ネットワーク(GQE-Net)を提案する。
GQE-Netは、幾何学情報を補助入力とグラフ畳み込みブロックとして使用し、局所的な特徴を効率的に抽出する。
実験結果から,本手法は最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2023-03-24T02:33:45Z) - Pixel Difference Convolutional Network for RGB-D Semantic Segmentation [2.334574428469772]
RGB-Dセマンティックセグメンテーションは、深度データの可用性のために畳み込みニューラルネットワークによって前進することができる。
固定グリッドカーネル構造を考えると、CNNは詳細できめ細かい情報をキャプチャする能力に限られる。
本稿では,差分畳み込みネットワーク(PDCNet)を提案する。
論文 参考訳(メタデータ) (2023-02-23T12:01:22Z) - Boosting Point Clouds Rendering via Radiance Mapping [49.24193509772339]
コンパクトなモデル設計でポイントクラウドレンダリングの画質向上に重点を置いている。
我々はNeRF表現を1ピクセルあたりの単一評価しか必要としない空間マッピング関数に単純化する。
提案手法は点雲上での最先端のレンダリングを実現し,先行研究を顕著なマージンで上回った。
論文 参考訳(メタデータ) (2022-10-27T01:25:57Z) - R-AGNO-RPN: A LIDAR-Camera Region Deep Network for Resolution-Agnostic
Detection [3.4761212729163313]
3次元点雲とRGB画像を融合した領域提案ネットワークR-AGNO-RPNを提案する。
私たちのアプローチは、低点のクラウド解像度にも適用できるように設計されています。
論文 参考訳(メタデータ) (2020-12-10T15:22:58Z) - The Cube++ Illumination Estimation Dataset [50.58610459038332]
本稿では,新しい照明推定データセットを提案する。
照明色が既知の4890の画像と、追加のセマンティックデータで構成されている。
データセットは、単一または2つの照度推定を実行するメソッドのトレーニングとテストに使用することができる。
論文 参考訳(メタデータ) (2020-11-19T18:50:08Z) - GRNet: Gridding Residual Network for Dense Point Cloud Completion [54.43648460932248]
完全な3Dポイントクラウドを不完全なクラウドから推定することは、多くのビジョンやロボティクスアプリケーションにおいて重要な問題である。
本稿では,ポイントクラウド補完のための新しいGridding Residual Network(GRNet)を提案する。
実験結果から,提案したGRNetはShapeNet,Completion3D,KITTIベンチマークの最先端手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-06-06T02:46:39Z) - Is Depth Really Necessary for Salient Object Detection? [50.10888549190576]
本稿では,RGB情報のみを推論の入力とする統合深度認識フレームワークの実現に向けた最初の試みを行う。
5つの公開RGB SODベンチマークの最先端のパフォーマンスを上回るだけでなく、5つのベンチマークのRGBDベースのメソッドを大きく上回っている。
論文 参考訳(メタデータ) (2020-05-30T13:40:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。