論文の概要: R-C-P Method: An Autonomous Volume Calculation Method Using Image
Processing and Machine Vision
- arxiv url: http://arxiv.org/abs/2308.10058v2
- Date: Sun, 4 Feb 2024 01:43:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 05:28:38.666292
- Title: R-C-P Method: An Autonomous Volume Calculation Method Using Image
Processing and Machine Vision
- Title(参考訳): R-C-P法:画像処理とマシンビジョンを用いた自動体積計算法
- Authors: MA Muktadir, Sydney Parker, Sun Yi
- Abstract要約: 2台のカメラを用いて、矩形物体の寸法をリアルタイムで測定した。
画像処理とエッジ検出を用いてR-C-P法を開発した。
表面積に加えて、R-C-P法は不連続エッジや体積も検出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine vision and image processing are often used with sensors for situation
awareness in autonomous systems, from industrial robots to self-driving cars.
The 3D depth sensors, such as LiDAR (Light Detection and Ranging), Radar, are
great invention for autonomous systems. Due to the complexity of the setup,
LiDAR may not be suitable for some operational environments, for example, a
space environment. This study was motivated by a desire to get real-time
volumetric and change information with multiple 2D cameras instead of a depth
camera. Two cameras were used to measure the dimensions of a rectangular object
in real-time. The R-C-P (row-column-pixel) method is developed using image
processing and edge detection. In addition to the surface areas, the R-C-P
method also detects discontinuous edges or volumes. Lastly, experimental work
is presented for illustration of the R-C-P method, which provides the equations
for calculating surface area dimensions. Using the equations with given
distance information between the object and the camera, the vision system
provides the dimensions of actual objects.
- Abstract(参考訳): マシンビジョンと画像処理は、産業用ロボットから自動運転車まで、自律システムにおける状況認識のためのセンサーとしてしばしば使用される。
LiDAR(Light Detection and Ranging)やRadarのような3D深度センサーは、自律システムにとって素晴らしい発明である。
セットアップの複雑さのため、LiDARはいくつかの運用環境、例えば宇宙環境には適さないかもしれない。
この研究は、深度カメラの代わりに複数の2Dカメラでリアルタイムのボリュームと情報を変更したいという欲求に動機づけられた。
2台のカメラを用いて、矩形物体の寸法をリアルタイムで測定した。
画像処理とエッジ検出を用いてR-C-P法を開発した。
表面積に加えて、R-C-P法は不連続エッジや体積も検出する。
最後に、表面積の次元を計算するための方程式を提供するR-C-P法の例を示した。
物体とカメラの間の所定の距離情報を持つ方程式を用いて、視覚システムは実際の物体の寸法を提供する。
関連論文リスト
- Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Vision-Based Environmental Perception for Autonomous Driving [4.138893879750758]
視覚認知は自律運転において重要な役割を果たす。
近年のディープラーニング手法の開発は信頼性と処理速度が向上している。
単眼カメラは、物体の深度を推定するために、単一の視点からの画像データを使用する。
同時位置情報マッピング(SLAM)は、道路環境のモデルを構築することができる。
論文 参考訳(メタデータ) (2022-12-22T01:59:58Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - Disentangling and Vectorization: A 3D Visual Perception Approach for
Autonomous Driving Based on Surround-View Fisheye Cameras [3.485767750936058]
多次元ベクトルは、異なる次元と段階で生成される有効情報を含むことが提案されている。
実魚眼画像実験により,本手法は実時間で最先端の精度を達成できることが実証された。
論文 参考訳(メタデータ) (2021-07-19T13:24:21Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - Supervised Training of Dense Object Nets using Optimal Descriptors for
Industrial Robotic Applications [57.87136703404356]
Florence、Manuelli、TedrakeによるDense Object Nets(DON)は、ロボットコミュニティのための新しいビジュアルオブジェクト表現として高密度オブジェクト記述子を導入した。
本稿では, 物体の3次元モデルを考えると, 記述子空間画像を生成することができ, DON の教師付きトレーニングが可能であることを示す。
産業用物体の6次元グリップ生成のためのトレーニング手法を比較し,新しい教師付きトレーニング手法により,産業関連タスクのピック・アンド・プレイス性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-16T11:40:12Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Automatic Estimation of Sphere Centers from Images of Calibrated Cameras [11.816942730023886]
本稿では,カメラ画像中の楕円を自動的に検出すると共に,検出した2次元楕円に対応する球面の3次元位置を推定する。
カメラ画像中の楕円を検出するための2つの新しい手法を提案し,その大きさが分かっていれば対応する球体の空間的位置を推定する。
デジタルカメラ、深度センサー、LiDARデバイスを備えた自動運転車のセンサーシステムの校正に応用される。
論文 参考訳(メタデータ) (2020-02-24T13:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。