論文の概要: Label Correction for Road Segmentation Using Road-side Cameras
- arxiv url: http://arxiv.org/abs/2502.01281v1
- Date: Mon, 03 Feb 2025 11:52:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:24.063788
- Title: Label Correction for Road Segmentation Using Road-side Cameras
- Title(参考訳): 道路側カメラを用いた道路セグメンテーションのためのラベル補正
- Authors: Henrik Toikka, Eerik Alamikkotervo, Risto Ojala,
- Abstract要約: 既存の道路カメラインフラを利用して、様々な気象条件の道路データを自動的に収集する。
道路カメラの半自動アノテーション手法を提案する。
冬期にフィンランド全土の927台のカメラから収集した路面カメラデータを用いて,提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 0.44241702149260353
- License:
- Abstract: Reliable road segmentation in all weather conditions is critical for intelligent transportation applications, autonomous vehicles and advanced driver's assistance systems. For robust performance, all weather conditions should be included in the training data of deep learning-based perception models. However, collecting and annotating such a dataset requires extensive resources. In this paper, existing roadside camera infrastructure is utilized for collecting road data in varying weather conditions automatically. Additionally, a novel semi-automatic annotation method for roadside cameras is proposed. For each camera, only one frame is labeled manually and then the label is transferred to other frames of that camera feed. The small camera movements between frames are compensated using frequency domain image registration. The proposed method is validated with roadside camera data collected from 927 cameras across Finland over 4 month time period during winter. Training on the semi-automatically labeled data boosted the segmentation performance of several deep learning segmentation models. Testing was carried out on two different datasets to evaluate the robustness of the resulting models. These datasets were an in-domain roadside camera dataset and out-of-domain dataset captured with a vehicle on-board camera.
- Abstract(参考訳): 全ての気象条件における信頼性の高い道路分割は、インテリジェントな輸送アプリケーション、自動運転車、先進的な運転支援システムにとって重要である。
強靭な性能を得るためには、すべての気象条件をディープラーニングに基づく知覚モデルのトレーニングデータに含めるべきである。
しかし、このようなデータセットの収集と注釈付けには膨大なリソースが必要である。
本稿では,既存の道路カメラのインフラを利用して,気象条件の異なる道路データを自動的に収集する。
また,道路カメラの半自動アノテーション手法を提案する。
それぞれのカメラについて、1つのフレームだけが手動でラベル付けされ、そのラベルはそのカメラフィードの他のフレームに転送される。
フレーム間の小さなカメラの動きを周波数領域画像登録を用いて補償する。
冬期にフィンランド全土の927台のカメラから収集した路面カメラデータを用いて,提案手法の有効性を検証した。
半自動ラベル付きデータのトレーニングにより、いくつかのディープラーニングセグメンテーションモデルのセグメンテーション性能が向上した。
2つの異なるデータセットでテストを行い、結果のモデルの堅牢性を評価した。
これらのデータセットは、ドメイン内のロードサイドカメラデータセットと、オンボードカメラでキャプチャされたドメイン外のデータセットである。
関連論文リスト
- Trajectory-based Road Autolabeling with Lidar-Camera Fusion in Winter Conditions [1.3724491757145387]
トラジェクトリに基づく自己管理手法は,手動のラベルを使わずに,横断経路から学習することができる。
本手法は,冬期運転データセットの評価において,近年のスタンドアロンカメラおよびライダー方式よりも優れていた。
論文 参考訳(メタデータ) (2024-12-03T10:54:37Z) - Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - XLD: A Cross-Lane Dataset for Benchmarking Novel Driving View Synthesis [84.23233209017192]
本稿では,自律走行シミュレーションに特化して設計された新しい駆動ビュー合成データセットとベンチマークを提案する。
データセットには、トレーニング軌跡から1-4mずれて取得した画像のテストが含まれているため、ユニークなものだ。
我々は、フロントオンリーおよびマルチカメラ設定下で、既存のNVSアプローチを評価するための最初の現実的なベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-26T14:00:21Z) - City-Scale Multi-Camera Vehicle Tracking System with Improved Self-Supervised Camera Link Model [0.0]
本稿では,自己監督型カメラリンクモデルを用いた,革新的なマルチカメラ車両追跡システムを提案する。
提案手法は,61.07%のIDF1スコアを有するCityFlow V2ベンチマークにおいて,自動カメラリンク方式の最先端性を実現する。
論文 参考訳(メタデータ) (2024-05-18T17:28:35Z) - TEDNet: Twin Encoder Decoder Neural Network for 2D Camera and LiDAR Road Detection [2.8038082486377114]
道路面の正確な推定のために,新しい畳み込みニューラルネットワークモデルを提案する。
我々のモデルは、独立カメラとLiDAR機能抽出にTwin-Decoder Neural Network(TEDNet)を用いている。
このモデルでは、カメラとLiDARデータのバードアイビュー投影を用いて、各ピクセルが路面に属するか否かのセマンティックセグメンテーションを行う。
論文 参考訳(メタデータ) (2024-05-14T08:45:34Z) - Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - Towards Viewpoint Robustness in Bird's Eye View Segmentation [85.99907496019972]
AV知覚モデルがカメラ視点の変化にどのように影響するかを考察する。
投機時のピッチ、ヨー、深さ、高さへの小さな変化は、大きな性能低下につながる。
本稿では,新しいビュー合成技術を導入し,収集したデータをターゲットリグの視点に変換する手法を提案する。
論文 参考訳(メタデータ) (2023-09-11T02:10:07Z) - DualCam: A Novel Benchmark Dataset for Fine-grained Real-time Traffic
Light Detection [0.7130302992490973]
本稿では,狭角カメラと広角カメラの同期を用いた新しいベンチマーク・トラヒック・ライト・データセットを提案する。
データセットには1920$times$1080の解像度の画像が含まれ、10の異なるクラスをカバーする。
その結果,従来の1台のカメラフレームを用いた場合と比較して,速度と精度のバランスがとれることがわかった。
論文 参考訳(メタデータ) (2022-09-03T08:02:55Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Ithaca365: Dataset and Driving Perception under Repeated and Challenging
Weather Conditions [0.0]
我々は、新しいデータ収集プロセスを通じて、堅牢な自律運転を可能にする新しいデータセットを提案する。
データセットには、高精度GPS/INSとともに、カメラとLiDARセンサーからの画像と点雲が含まれている。
道路・オブジェクトのアモーダルセグメンテーションにおけるベースラインの性能を解析することにより,このデータセットの特異性を実証する。
論文 参考訳(メタデータ) (2022-08-01T22:55:32Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。