論文の概要: Depth Ranging Performance Evaluation and Improvement for RGB-D Cameras
on Field-Based High-Throughput Phenotyping Robots
- arxiv url: http://arxiv.org/abs/2011.01022v2
- Date: Tue, 27 Apr 2021 12:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:50:00.430572
- Title: Depth Ranging Performance Evaluation and Improvement for RGB-D Cameras
on Field-Based High-Throughput Phenotyping Robots
- Title(参考訳): RGB-Dカメラの深絞り性能評価とフィールドベースハイスルー高調波ロボットの性能改善
- Authors: Zhengqiang Fan, Na Sun, Quan Qiu, and Chunjiang Zhao
- Abstract要約: 我々は,2台のコンシューマレベルのRGB-Dカメラ(RealSense D435iおよびKinect V2)のフィールド内HTTPシナリオ下での深度調整性能を評価した。
評価結果に基づいて,輝度と距離に基づくサポートベクトル回帰戦略を提案し,その誤差を補償する。
- 参考スコア(独自算出の注目度): 2.3536628395905974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB-D cameras have been successfully used for indoor High-ThroughpuT
Phenotyping (HTTP). However, their capability and feasibility for in-field HTTP
still need to be evaluated, due to the noise and disturbances generated by
unstable illumination, specular reflection, and diffuse reflection, etc. To
solve these problems, we evaluated the depth-ranging performances of two
consumer-level RGB-D cameras (RealSense D435i and Kinect V2) under in-field
HTTP scenarios, and proposed a strategy to compensate the depth measurement
error. For performance evaluation, we focused on determining their optimal
ranging areas for different crop organs. Based on the evaluation results, we
proposed a brightness-and-distance-based Support Vector Regression Strategy, to
compensate the ranging error. Furthermore, we analyzed the depth filling rate
of two RGB-D cameras under different lighting intensities. Experimental results
showed that: 1) For RealSense D435i, its effective ranging area is [0.160,
1.400] m, and in-field filling rate is approximately 90%. 2) For Kinect V2, it
has a high ranging accuracy in the [0.497, 1.200] m, but its in-field filling
rate is less than 24.9%. 3) Our error compensation model can effectively reduce
the influences of lighting intensity and target distance. The maximum MSE and
minimum R2 of this model are 0.029 and 0.867, respectively. To sum up,
RealSense D435i has better ranging performances than Kinect V2 on in-field
HTTP.
- Abstract(参考訳): RGB-Dカメラは、屋内のHigh-Throughput Phenotyping(HTTP)に成功している。
しかし、不安定な照明、スペクトル反射、拡散反射などによって発生するノイズや乱れのために、フィールド内HTTPの能力と実現可能性を評価する必要がある。
これらの問題を解決するために,2台のコンシューマレベルのRGB-Dカメラ(RealSense D435iおよびKinect V2)のフィールド内HTTPシナリオ下での深度測定性能を評価し,深度測定誤差を補償する戦略を提案した。
性能評価のために,異なる作物器官の最適範囲の決定に焦点をあてた。
評価結果に基づいて,輝度と距離に基づくサポートベクトル回帰戦略を提案し,その誤差を補償する。
さらに,光強度の異なる2台のRGB-Dカメラの奥行き充填速度を解析した。
実験の結果は
1)RealSense D435iの場合,有効範囲は[0.160, 1.400]m,フィールド充填率は約90%である。
2)Kinect V2では[0.497, 1.200]mの精度が高いが、フィールド内充填率は24.9%未満である。
3) 誤差補償モデルは照明強度と目標距離の影響を効果的に低減することができる。
このモデルの最大MSEと最小R2はそれぞれ0.029と0.867である。
まとめると、RealSense D435iは、フィールド内HTTP上のKinect V2よりもパフォーマンスが良い。
関連論文リスト
- Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [27.147735356737552]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
その結果,全焦点推定(AIF)では$1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が向上した。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - BSRAW: Improving Blind RAW Image Super-Resolution [63.408484584265985]
RAW領域におけるブラインド画像の超解像化に取り組む。
生センサデータを用いたトレーニングモデルに特化した,現実的な劣化パイプラインを設計する。
私たちのパイプラインでトレーニングしたBSRAWモデルは、リアルタイムRAW画像をスケールアップし、品質を向上させることができます。
論文 参考訳(メタデータ) (2023-12-24T14:17:28Z) - AutoDepthNet: High Frame Rate Depth Map Reconstruction using Commodity
Depth and RGB Cameras [7.711080558364457]
本稿では,遅延を低減し,奥行きカメラのフレームレートを向上させるために,高速かつ高精度な深度マップ再構成手法を提案する。
私たちのアプローチでは、ハイブリッドカメラのセットアップでは、コモディティデプスカメラとカラーカメラのみを使用します。
提案するネットワークであるAutoDepthNetは、高速RGBカメラからフレームをキャプチャし、それらを以前の深度フレームと組み合わせて高フレームレート深度マップのストリームを再構築するエンコーダデコーダモデルである。
論文 参考訳(メタデータ) (2023-05-24T05:09:43Z) - Reversed Image Signal Processing and RAW Reconstruction. AIM 2022
Challenge Report [109.2135194765743]
本稿では,AIM 2022 Challenge on Reversed Image Signal Processing and RAW Reconstructionを紹介する。
我々は,メタデータを使わずにRGBから生のセンサイメージを回収し,ISP変換を「逆」することを目的としている。
論文 参考訳(メタデータ) (2022-10-20T10:43:53Z) - FloatingFusion: Depth from ToF and Image-stabilized Stereo Cameras [37.812681878193914]
スマートフォンには、飛行時間(ToF)深度センサーと複数のカラーカメラを備えたマルチモーダルカメラシステムが搭載されている。
高精度な高解像度の深度を作り出すことは、ToFセンサーの低解像度と限られた能動照明力のために依然として困難である。
本稿では,1枚のスナップショットからカメラパラメータを推定できる高密度2D/3Dマッチングに基づく自動校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T09:57:09Z) - MIPI 2022 Challenge on RGBW Sensor Re-mosaic: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T06:06:56Z) - MIPI 2022 Challenge on RGBW Sensor Fusion: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含む,最初のMIPI課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T05:56:53Z) - Multi Visual Modality Fall Detection Dataset [4.00152916049695]
転倒は、世界中の高齢者の怪我による死亡の主な原因の1つだ。
効果的なフォールの検出は、合併症や怪我のリスクを減らすことができる。
しかし、通常のRGBカメラは照明条件やプライバシーの懸念によって影響を受ける。
論文 参考訳(メタデータ) (2022-06-25T21:54:26Z) - Depth Quality-Inspired Feature Manipulation for Efficient RGB-D Salient
Object Detection [19.60615728172274]
RGB-D Salient Object Detection (SOD) は、従来のRGB SODに余分な深度情報を提供することによって、研究の関心を高めている。
既存のRGB-D SODモデルは、効率と精度の両面でうまく機能しないことが多い。
本稿では,DQFMプロセスを提案する。DQFMプロセスは効率が高く,奥行き特徴をフィルタリングするためのゲーティング機構として機能する。
論文 参考訳(メタデータ) (2021-07-05T04:03:02Z) - AIM 2020 Challenge on Rendering Realistic Bokeh [95.87775182820518]
本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューする。
目標は、大規模なESB! bokehデータセットを使用して、現実的な浅いフォーカステクニックを学ぶことだった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
論文 参考訳(メタデータ) (2020-11-10T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。