論文の概要: Depth Ranging Performance Evaluation and Improvement for RGB-D Cameras
on Field-Based High-Throughput Phenotyping Robots
- arxiv url: http://arxiv.org/abs/2011.01022v2
- Date: Tue, 27 Apr 2021 12:49:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:50:00.430572
- Title: Depth Ranging Performance Evaluation and Improvement for RGB-D Cameras
on Field-Based High-Throughput Phenotyping Robots
- Title(参考訳): RGB-Dカメラの深絞り性能評価とフィールドベースハイスルー高調波ロボットの性能改善
- Authors: Zhengqiang Fan, Na Sun, Quan Qiu, and Chunjiang Zhao
- Abstract要約: 我々は,2台のコンシューマレベルのRGB-Dカメラ(RealSense D435iおよびKinect V2)のフィールド内HTTPシナリオ下での深度調整性能を評価した。
評価結果に基づいて,輝度と距離に基づくサポートベクトル回帰戦略を提案し,その誤差を補償する。
- 参考スコア(独自算出の注目度): 2.3536628395905974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: RGB-D cameras have been successfully used for indoor High-ThroughpuT
Phenotyping (HTTP). However, their capability and feasibility for in-field HTTP
still need to be evaluated, due to the noise and disturbances generated by
unstable illumination, specular reflection, and diffuse reflection, etc. To
solve these problems, we evaluated the depth-ranging performances of two
consumer-level RGB-D cameras (RealSense D435i and Kinect V2) under in-field
HTTP scenarios, and proposed a strategy to compensate the depth measurement
error. For performance evaluation, we focused on determining their optimal
ranging areas for different crop organs. Based on the evaluation results, we
proposed a brightness-and-distance-based Support Vector Regression Strategy, to
compensate the ranging error. Furthermore, we analyzed the depth filling rate
of two RGB-D cameras under different lighting intensities. Experimental results
showed that: 1) For RealSense D435i, its effective ranging area is [0.160,
1.400] m, and in-field filling rate is approximately 90%. 2) For Kinect V2, it
has a high ranging accuracy in the [0.497, 1.200] m, but its in-field filling
rate is less than 24.9%. 3) Our error compensation model can effectively reduce
the influences of lighting intensity and target distance. The maximum MSE and
minimum R2 of this model are 0.029 and 0.867, respectively. To sum up,
RealSense D435i has better ranging performances than Kinect V2 on in-field
HTTP.
- Abstract(参考訳): RGB-Dカメラは、屋内のHigh-Throughput Phenotyping(HTTP)に成功している。
しかし、不安定な照明、スペクトル反射、拡散反射などによって発生するノイズや乱れのために、フィールド内HTTPの能力と実現可能性を評価する必要がある。
これらの問題を解決するために,2台のコンシューマレベルのRGB-Dカメラ(RealSense D435iおよびKinect V2)のフィールド内HTTPシナリオ下での深度測定性能を評価し,深度測定誤差を補償する戦略を提案した。
性能評価のために,異なる作物器官の最適範囲の決定に焦点をあてた。
評価結果に基づいて,輝度と距離に基づくサポートベクトル回帰戦略を提案し,その誤差を補償する。
さらに,光強度の異なる2台のRGB-Dカメラの奥行き充填速度を解析した。
実験の結果は
1)RealSense D435iの場合,有効範囲は[0.160, 1.400]m,フィールド充填率は約90%である。
2)Kinect V2では[0.497, 1.200]mの精度が高いが、フィールド内充填率は24.9%未満である。
3) 誤差補償モデルは照明強度と目標距離の影響を効果的に低減することができる。
このモデルの最大MSEと最小R2はそれぞれ0.029と0.867である。
まとめると、RealSense D435iは、フィールド内HTTP上のKinect V2よりもパフォーマンスが良い。
関連論文リスト
- Performance Assessment of Feature Detection Methods for 2-D FS Sonar Imagery [11.23455335391121]
主な課題は、一様でない照明と、濁った環境での視界の低下である。
高周波フォワードフォワードソナーカメラはこれらの問題に対処する。
5種類のソナー装置の実際のソナー画像を用いた特徴検出器の評価を行った。
論文 参考訳(メタデータ) (2024-09-11T04:35:07Z) - Enhancing Underwater Imaging with 4-D Light Fields: Dataset and Method [77.80712860663886]
4次元光場(LF)は、光吸収、散乱、その他の課題に悩まされる水中イメージングを強化する。
水中4次元LF画像強調と深度推定のためのプログレッシブフレームワークを提案する。
学習手法の定量的評価と教師あり訓練のための,最初の4次元LFに基づく水中画像データセットを構築した。
論文 参考訳(メタデータ) (2024-08-30T15:06:45Z) - A Recurrent YOLOv8-based framework for Event-Based Object Detection [4.866548300593921]
本研究では、時間的モデリング機能を備えたフレームベース検出システムを強化する高度なオブジェクト検出フレームワークであるReYOLOv8を紹介する。
イベントデータを符号化する低レイテンシでメモリ効率の手法を実装し,システムの性能を向上する。
また、イベントデータのユニークな属性を利用するように調整された新しいデータ拡張手法を開発し、検出精度を向上した。
論文 参考訳(メタデータ) (2024-08-09T20:00:16Z) - Event Camera Demosaicing via Swin Transformer and Pixel-focus Loss [17.422153237516767]
RAW領域処理における画素値の欠落を解消するための,Swin-Transformerベースのバックボーンと画素焦点損失関数を提案する。
提案手法は,マルチスケール処理とスペース・ツー・ディープス技術を利用して,効率の確保と計算複雑性の低減を図る。
論文 参考訳(メタデータ) (2024-04-03T13:30:56Z) - Toward Efficient Visual Gyroscopes: Spherical Moments, Harmonics Filtering, and Masking Techniques for Spherical Camera Applications [83.8743080143778]
視覚ジャイロスコープは、画像を通してカメラの回転を推定する。
従来のRGBカメラに比べて視野が広い全方位カメラの統合は、より正確で堅牢な結果をもたらすことが証明されている。
本稿では,効率的なマルチマスク・フィルタ回転エステータと学習に基づく最適化を組み合わせた,新しい視覚ジャイロスコープを導入することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2024-04-02T13:19:06Z) - Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z) - Passive Snapshot Coded Aperture Dual-Pixel RGB-D Imaging [25.851398356458425]
単発3Dセンシングは、顕微鏡、医用画像、手術ナビゲーション、自律運転など、多くの応用分野において有用である。
画像レンズに符号化開口とDPセンサを併用したCADS(Coded Aperture Dual-Pixel Sensing)を提案する。
以上の結果から,ALF(All-in-focus)推定では1.5dBPSNRが改善し,DPセンシングでは5-6%の深さ推定精度が得られた。
論文 参考訳(メタデータ) (2024-02-28T06:45:47Z) - FloatingFusion: Depth from ToF and Image-stabilized Stereo Cameras [37.812681878193914]
スマートフォンには、飛行時間(ToF)深度センサーと複数のカラーカメラを備えたマルチモーダルカメラシステムが搭載されている。
高精度な高解像度の深度を作り出すことは、ToFセンサーの低解像度と限られた能動照明力のために依然として困難である。
本稿では,1枚のスナップショットからカメラパラメータを推定できる高密度2D/3Dマッチングに基づく自動校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-06T09:57:09Z) - MIPI 2022 Challenge on RGBW Sensor Re-mosaic: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含むMIPIの最初の課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T06:06:56Z) - MIPI 2022 Challenge on RGBW Sensor Fusion: Dataset and Report [90.34148262169595]
本稿では,新しい画像センサと撮像アルゴリズムに着目した5つのトラックを含む,最初のMIPI課題を紹介する。
参加者は、高品質なRGBWとBayerペアの70(トレーニング)と15(検証)シーンを含む、新しいデータセットを与えられた。
すべてのデータは、屋外と屋内の両方でRGBWセンサーで撮影されました。
論文 参考訳(メタデータ) (2022-09-15T05:56:53Z) - AIM 2020 Challenge on Rendering Realistic Bokeh [95.87775182820518]
本稿では,第2回AIM現実ボケ効果レンダリングチャレンジをレビューする。
目標は、大規模なESB! bokehデータセットを使用して、現実的な浅いフォーカステクニックを学ぶことだった。
参加者は、他のカメラやセンサーからの追加データなしで、単一のフレームのみに基づいてボケ効果をレンダリングしなければならなかった。
論文 参考訳(メタデータ) (2020-11-10T09:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。