論文の概要: Corrosion Detection for Industrial Objects: From Multi-Sensor System to
5D Feature Space
- arxiv url: http://arxiv.org/abs/2205.07075v1
- Date: Sat, 14 May 2022 14:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-17 17:02:12.929711
- Title: Corrosion Detection for Industrial Objects: From Multi-Sensor System to
5D Feature Space
- Title(参考訳): 産業用物体の腐食検出:マルチセンサシステムから5次元特徴空間へ
- Authors: Dennis Haitz, Boris Jutzi, Patrick Huebner, Markus Ulrich
- Abstract要約: 腐食は、産業用途に使用される金属製の物体の表面にしばしば現れる損傷の一種である。
物体を360度回転させる回転テーブルからなる試験装置を提供する。
RGBカメラとレーザー三角センサーは、我々のマルチセンサーシステムとして2Dおよび3Dデータを取得する。
- 参考スコア(独自算出の注目度): 5.0468312081378475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Corrosion is a form of damage that often appears on the surface of metal-made
objects used in industrial applications. Those damages can be critical
depending on the purpose of the used object. Optical-based testing systems
provide a form of non-contact data acquisition, where the acquired data can
then be used to analyse the surface of an object. In the field of industrial
image processing, this is called surface inspection. We provide a testing setup
consisting of a rotary table which rotates the object by 360 degrees, as well
as industrial RGB cameras and laser triangulation sensors for the acquisition
of 2D and 3D data as our multi-sensor system. These sensors acquire data while
the object to be tested takes a full rotation. Further on, data augmentation is
applied to prepare new data or enhance already acquired data. In order to
evaluate the impact of a laser triangulation sensor for corrosion detection,
one challenge is to at first fuse the data of both domains. After the data
fusion process, 5 different channels can be utilized to create a 5D feature
space. Besides the red, green and blue channels of the image (1-3), additional
range data from the laser triangulation sensor is incorporated (4). As a fifth
channel, said sensor provides additional intensity data (5). With a
multi-channel image classification, a 5D feature space will lead to slightly
superior results opposed to a 3D feature space, composed of only the RGB
channels of the image.
- Abstract(参考訳): 腐食は、産業用途に使用される金属製の物体の表面にしばしば現れる損傷の一種である。
これらの損傷は、使用済みのオブジェクトの目的によって重要である。
光ベースのテストシステムは、非接触データ取得の形式を提供し、取得したデータをオブジェクトの表面の分析に使用することができる。
産業画像処理の分野では、これを表面検査と呼ぶ。
対象物を360度回転させる回転テーブルと、産業用rgbカメラとレーザー三角測量センサとからなる試験装置を、マルチセンサーシステムとして2dおよび3dデータを取得する。
これらのセンサーはデータを取得し、テスト対象は完全な回転を取る。
さらに、データ拡張を適用して、新しいデータを作成したり、既に取得したデータを強化する。
腐食検出のためのレーザ三角センサの影響を評価するため,両領域のデータを最初に融合させることが課題である。
データ融合プロセスの後、5つの異なるチャンネルを使用して5D機能空間を作成することができる。
画像の赤、緑、青のチャネル(1-3)に加えて、レーザ三角測量センサからの追加範囲データを取り込む(4)。
第5のチャネルとして、前記センサは追加の強度データ(5)を提供する。
多チャンネル画像分類では、画像のRGBチャネルのみで構成された3D特徴空間に対して、5D特徴空間はわずかに優れた結果をもたらす。
関連論文リスト
- Multimodal Object Detection using Depth and Image Data for Manufacturing Parts [1.0819408603463427]
本研究では,赤緑色(RGB)カメラと3Dポイントクラウドセンサを組み合わせたマルチセンサシステムを提案する。
RGBと深度データの両方を処理するために,新しいマルチモーダルオブジェクト検出法を開発した。
その結果、マルチモーダルモデルは、確立されたオブジェクト検出基準に基づいて、深さのみのベースラインとRGBのみのベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2024-11-13T22:43:15Z) - MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques [4.816237933371206]
我々は、光学領域と電波領域の両方から深度イメージを特徴付けるというユニークな課題に挑戦する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
論文 参考訳(メタデータ) (2024-11-01T11:53:10Z) - DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping [7.050468075029598]
本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Joint object detection and re-identification for 3D obstacle
multi-camera systems [47.87501281561605]
本研究は,カメラとライダー情報を用いた物体検出ネットワークに新たな改良を加えたものである。
同じ車両内の隣のカメラにまたがって物体を再識別する作業のために、追加のブランチが組み込まれている。
その結果,従来の非最大抑圧(NMS)技術よりも,この手法が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-09T15:16:35Z) - Towards a Robust Sensor Fusion Step for 3D Object Detection on Corrupted
Data [4.3012765978447565]
この研究は、データの破損に対処し、3Dオブジェクト検出のためのセンサ融合をより堅牢にする新しい融合ステップを示す。
提案手法は,通常のデータに対する最先端手法と同等に動作し,不整合データに対して性能を向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T18:06:29Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Deep Continuous Fusion for Multi-Sensor 3D Object Detection [103.5060007382646]
本稿では,LIDARとカメラを併用して高精度な位置検出を実現する3Dオブジェクト検出器を提案する。
我々は,連続畳み込みを利用して画像とlidar特徴マップを異なるレベルの解像度で融合する,エンドツーエンド学習可能なアーキテクチャを設計した。
論文 参考訳(メタデータ) (2020-12-20T18:43:41Z) - Expandable YOLO: 3D Object Detection from RGB-D Images [64.14512458954344]
本稿では,ステレオカメラから深度とカラー画像を入力する軽量物体検出器の構築を目的とする。
YOLOv3のネットワークアーキテクチャを中央から3Dに拡張することにより、深さ方向の出力が可能となる。
領域抽出結果の精度を確認するため、3次元空間におけるユニノン(IoU)の切断を導入する。
論文 参考訳(メタデータ) (2020-06-26T07:32:30Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。