論文の概要: ViViD++: Vision for Visibility Dataset
- arxiv url: http://arxiv.org/abs/2204.06183v2
- Date: Thu, 14 Apr 2022 00:38:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-16 08:34:24.911777
- Title: ViViD++: Vision for Visibility Dataset
- Title(参考訳): ViViD++: 可視性データセットのビジョン
- Authors: Alex Junho Lee, Younggun Cho, Young-sik Shin, Ayoung Kim, Hyun Myung
- Abstract要約: 様々な輝度条件をターゲットとした多様な視覚データフォーマットを抽出したデータセットを提案する。
代替センサーの可能性にもかかわらず、代替視覚センサーを備えたデータセットは依然として少ない。
これらの測定結果と慣性センサーと接地構造を併用して,照明不良下でのロバストな視力SLAMを開発する。
- 参考スコア(独自算出の注目度): 14.839450468199457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present a dataset capturing diverse visual data formats
that target varying luminance conditions. While RGB cameras provide nourishing
and intuitive information, changes in lighting conditions potentially result in
catastrophic failure for robotic applications based on vision sensors.
Approaches overcoming illumination problems have included developing more
robust algorithms or other types of visual sensors, such as thermal and event
cameras. Despite the alternative sensors' potential, there still are few
datasets with alternative vision sensors. Thus, we provided a dataset recorded
from alternative vision sensors, by handheld or mounted on a car, repeatedly in
the same space but in different conditions. We aim to acquire visible
information from co-aligned alternative vision sensors. Our sensor system
collects data more independently from visible light intensity by measuring the
amount of infrared dissipation, depth by structured reflection, and
instantaneous temporal changes in luminance. We provide these measurements
along with inertial sensors and ground-truth for developing robust visual SLAM
under poor illumination. The full dataset is available at:
https://visibilitydataset.github.io/
- Abstract(参考訳): 本稿では,様々な輝度条件を対象とする多彩な視覚データ形式をキャプチャするデータセットを提案する。
RGBカメラはノイズ除去と直感的な情報を提供するが、照明条件の変化は視覚センサーに基づくロボットアプリケーションにとって破滅的な失敗をもたらす可能性がある。
照明問題を克服するアプローチとしては、より堅牢なアルゴリズムやサーマルカメラやイベントカメラなどの視覚センサーの開発がある。
代替センサーの可能性にもかかわらず、代替視覚センサーを備えたデータセットはまだ少ない。
そこで我々は,車載やハンドヘルドなどの代替視覚センサから記録されたデータセットを,同じ空間で繰り返し,異なる条件で提供した。
我々は,協調型視覚センサから可視情報を取得することを目指している。
センサシステムは、赤外放射量、構造反射による深度、輝度の瞬時変化を測定することで、可視光強度とは独立してデータを収集する。
これらの測定結果と慣性センサーと接地構造を併用し, 照明不良下でのロバストな視力SLAMの開発を行う。
完全なデータセットは、https://visibilitydataset.github.io/で入手できる。
関連論文リスト
- MSSIDD: A Benchmark for Multi-Sensor Denoising [55.41612200877861]
我々は,マルチセンサSIDDデータセットという新しいベンチマークを導入する。これは,認知モデルのセンサ伝達性を評価するために設計された,最初の生ドメインデータセットである。
そこで本研究では,センサに不変な特徴を認知モデルで学習することのできるセンサ一貫性トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-18T13:32:59Z) - SPARK: Multi-Vision Sensor Perception and Reasoning Benchmark for Large-scale Vision-Language Models [43.79587815909473]
本稿では,SPARKと呼ばれるマルチビジョンセンサ知覚と推論ベンチマークの構築を目的とする。
我々は6,248個の視覚言語検定サンプルを作成し,多視点感覚知覚と多視点感覚推論を物理センサ知識の熟練度に基づいて検討した。
その結果、ほとんどのモデルでは、様々な範囲で多視点感覚理論の欠陥が見られた。
論文 参考訳(メタデータ) (2024-08-22T03:59:48Z) - DIDLM:A Comprehensive Multi-Sensor Dataset with Infrared Cameras, Depth Cameras, LiDAR, and 4D Millimeter-Wave Radar in Challenging Scenarios for 3D Mapping [7.050468075029598]
本研究では,屋内・屋外環境における3次元マッピングのための総合的マルチセンサ・データセットを提案する。
このデータセットは、赤外線カメラ、深度カメラ、LiDAR、および4Dミリ波レーダーからのデータで構成されている。
さまざまなSLAMアルゴリズムを使用してデータセットを処理し、異なるシナリオにおけるアルゴリズムのパフォーマンスの違いを明らかにする。
論文 参考訳(メタデータ) (2024-04-15T09:49:33Z) - Dataset and Benchmark: Novel Sensors for Autonomous Vehicle Perception [7.474695739346621]
本稿では,このトピックの今後の研究を促進するために,自律走行認識のための新しいセンサーについて紹介する。
データは2つの8kmルートを繰り返すことで収集され、様々な照明条件と反対の視点を含む。
我々の知る限り、NSAVPデータセットは、ステレオイベントとモノクロカメラと共にステレオサーマルカメラを初めて組み込んだものだ。
論文 参考訳(メタデータ) (2024-01-24T23:25:23Z) - On the Importance of Accurate Geometry Data for Dense 3D Vision Tasks [61.74608497496841]
不正確または破損したデータのトレーニングは、モデルバイアスとハマーズ一般化能力を誘導する。
本稿では,深度推定と再構成における高密度3次元視覚課題に対するセンサ誤差の影響について検討する。
論文 参考訳(メタデータ) (2023-03-26T22:32:44Z) - Learning Enriched Illuminants for Cross and Single Sensor Color
Constancy [182.4997117953705]
ネットワークをトレーニングするためのクロスセンサ自己教師型トレーニングを提案する。
センサに依存しない方法で人工発光体をランダムにサンプリングすることでネットワークを訓練する。
実験により、我々のクロスセンサモデルとシングルセンサーモデルは、他の最先端手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-03-21T15:45:35Z) - TUM-VIE: The TUM Stereo Visual-Inertial Event Dataset [50.8779574716494]
イベントカメラはバイオインスパイアされた視覚センサーで、ピクセルごとの明るさの変化を測定する。
これらは、低レイテンシ、高ダイナミックレンジ、高時間分解能、低消費電力など、従来のフレームベースのカメラよりも多くの利点を提供する。
イベントカメラを用いた3次元認識・ナビゲーションアルゴリズムの開発を促進するため,TUM-VIEデータセットを提案する。
論文 参考訳(メタデータ) (2021-08-16T19:53:56Z) - Radar Voxel Fusion for 3D Object Detection [0.0]
本稿では,3次元物体検出のための低レベルセンサ融合ネットワークを開発する。
レーダーセンサーの融合は、雨や夜景のような裂け目状態において特に有益である。
論文 参考訳(メタデータ) (2021-06-26T20:34:12Z) - Semantics-aware Adaptive Knowledge Distillation for Sensor-to-Vision
Action Recognition [131.6328804788164]
本稿では,視覚・センサ・モダリティ(動画)における行動認識を強化するためのフレームワーク,Semantics-Aware Adaptive Knowledge Distillation Networks (SAKDN)を提案する。
SAKDNは複数のウェアラブルセンサーを教師のモダリティとして使用し、RGB動画を学生のモダリティとして使用している。
論文 参考訳(メタデータ) (2020-09-01T03:38:31Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。