論文の概要: Decisive Data using Multi-Modality Optical Sensors for Advanced
Vehicular Systems
- arxiv url: http://arxiv.org/abs/2307.13600v1
- Date: Tue, 25 Jul 2023 16:03:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 16:18:15.115238
- Title: Decisive Data using Multi-Modality Optical Sensors for Advanced
Vehicular Systems
- Title(参考訳): 高度車両システムのための多モード光センサを用いた決定データ
- Authors: Muhammad Ali Farooq, Waseem Shariff, Mehdi Sefidgar Dilmaghani, Wang
Yao, Moazam Soomro, and Peter Corcoran
- Abstract要約: 本稿では、最先端の前方視システムと車内運転監視システムの設計・開発のための様々な光学技術に焦点を当てる。
焦点を絞った光学センサーには、Longwave Thermal Imaging (LWIR)カメラ、Near Infrared (NIR)カメラ、Neuromorphic/イベントカメラ、Visible CMOSカメラ、Depthカメラなどがある。
- 参考スコア(独自算出の注目度): 1.3315340349412819
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Optical sensors have played a pivotal role in acquiring real world data for
critical applications. This data, when integrated with advanced machine
learning algorithms provides meaningful information thus enhancing human
vision. This paper focuses on various optical technologies for design and
development of state-of-the-art out-cabin forward vision systems and in-cabin
driver monitoring systems. The focused optical sensors include Longwave Thermal
Imaging (LWIR) cameras, Near Infrared (NIR), Neuromorphic/ event cameras,
Visible CMOS cameras and Depth cameras. Further the paper discusses different
potential applications which can be employed using the unique strengths of each
these optical modalities in real time environment.
- Abstract(参考訳): 光センサーは、重要な応用のための現実世界のデータ取得において重要な役割を担っている。
このデータは、高度な機械学習アルゴリズムと統合することで、人間の視力を高める意味のある情報を提供する。
本稿では,最先端のインカビン前方視覚システムとインカビンドライバ監視システムの設計と開発のための各種光学技術について述べる。
焦点を絞った光学センサーには、Longwave Thermal Imaging (LWIR)カメラ、Near Infrared (NIR)カメラ、Neuromorphic/イベントカメラ、Visible CMOSカメラ、Depthカメラなどがある。
さらに, 実時間環境における各光変調特性の特異性を利用して, 様々な応用の可能性について論じる。
関連論文リスト
- MAROON: A Framework for the Joint Characterization of Near-Field High-Resolution Radar and Optical Depth Imaging Techniques [4.816237933371206]
我々は、光学領域と電波領域の両方から深度イメージを特徴付けるというユニークな課題に挑戦する。
本研究では, 対象物, ジオメトリー, 物体間距離について, 深度測定の総合的な評価を行う。
すべてのオブジェクトの測定は、MAROONと呼ばれるマルチモーダルデータセットとして公開されます。
論文 参考訳(メタデータ) (2024-11-01T11:53:10Z) - Event-based vision on FPGAs -- a survey [0.0]
フィールドプログラマブルゲートアレイ(FPGA)は、高速なデータ処理(リアルタイムでも)とエネルギー効率を実現している。
本稿では、FPGAがイベントデータを処理するために様々な文脈で使われている、最も重要な研究の概要について述べる。
フィルタリング、ステレオビジョン、光学フロー、オブジェクト分類のためのAIベースのアルゴリズムの加速、検出と追跡、ロボット工学および検査システムにおける応用などである。
論文 参考訳(メタデータ) (2024-07-11T10:07:44Z) - DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping [7.050468075029598]
本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - DensePose From WiFi [86.61881052177228]
WiFi信号の位相と振幅を24のヒト領域内の紫外線座標にマッピングするディープニューラルネットワークを開発した。
本モデルでは,複数の被験者の密集したポーズを,画像に基づくアプローチと同等の性能で推定することができる。
論文 参考訳(メタデータ) (2022-12-31T16:48:43Z) - Simulating single-photon detector array sensors for depth imaging [2.497104612216142]
単光雪崩検知器(SPAD)アレイは急速に進歩する技術である。
本研究では,SPADアレイを用いた深度イメージングの基本的な限界を確立するための,頑健で簡単な数値計算手法を確立する。
論文 参考訳(メタデータ) (2022-10-07T13:23:34Z) - Analyzing General-Purpose Deep-Learning Detection and Segmentation
Models with Images from a Lidar as a Camera Sensor [0.06554326244334865]
本研究は,高度ライダーセンサのイメージライクな出力処理のための汎用DL認識アルゴリズムの可能性について検討する。
3次元の点クラウドデータを処理するのではなく、私たちの知る限りでは、360textの視野を持つ低解像度の画像にフォーカスする最初の試みである。
適切な事前処理を行うことで、汎用DLモデルはこれらの画像を処理し、環境条件下での使用への扉を開くことができることを示す。
論文 参考訳(メタデータ) (2022-03-08T13:14:43Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。