論文の概要: Rail Detection: An Efficient Row-based Network and A New Benchmark
- arxiv url: http://arxiv.org/abs/2304.05667v1
- Date: Wed, 12 Apr 2023 07:44:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-13 15:48:33.568559
- Title: Rail Detection: An Efficient Row-based Network and A New Benchmark
- Title(参考訳): 鉄道検知:効率的なロウベースネットワークと新しいベンチマーク
- Authors: Xinpeng Li and Xiaojiang Peng
- Abstract要約: 7432対のイメージとアノテーションを備えた実世界の鉄道データセットRail-DBを提示する。
軽量な畳み込みバックボーンとアンカー分類器を備えた効率的な行ベースレール検出手法であるRail-Netを提案する。
我々はRail-Net on Rail-DBについて,ResNetからVision Transformerに至るまでのクロスシーン設定やネットワークバックボーンを含む広範な実験により評価した。
- 参考スコア(独自算出の注目度): 16.811407800603664
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rail detection, essential for railroad anomaly detection, aims to identify
the railroad region in video frames. Although various studies on rail detection
exist, neither an open benchmark nor a high-speed network is available in the
community, making algorithm comparison and development difficult. Inspired by
the growth of lane detection, we propose a rail database and a row-based rail
detection method. In detail, we make several contributions: (i) We present a
real-world railway dataset, Rail-DB, with 7432 pairs of images and annotations.
The images are collected from different situations in lighting, road
structures, and views. The rails are labeled with polylines, and the images are
categorized into nine scenes. The Rail-DB is expected to facilitate the
improvement of rail detection algorithms. (ii) We present an efficient
row-based rail detection method, Rail-Net, containing a lightweight
convolutional backbone and an anchor classifier. Specifically, we formulate the
process of rail detection as a row-based selecting problem. This strategy
reduces the computational cost compared to alternative segmentation methods.
(iii) We evaluate the Rail-Net on Rail-DB with extensive experiments, including
cross-scene settings and network backbones ranging from ResNet to Vision
Transformers. Our method achieves promising performance in terms of both speed
and accuracy. Notably, a lightweight version could achieve 92.77% accuracy and
312 frames per second. The Rail-Net outperforms the traditional method by
50.65% and the segmentation one by 5.86%. The database and code are available
at: https://github.com/Sampson-Lee/Rail-Detection.
- Abstract(参考訳): 鉄道異常検出に不可欠な鉄道検出は、ビデオフレーム内の鉄道領域を特定することを目的としている。
鉄道検出に関する様々な研究は存在するが、オープンベンチマークや高速ネットワークはコミュニティで利用できず、アルゴリズムの比較と開発が困難である。
レーン検出の進展に触発されて,レールデータベースと行に基づくレール検出手法を提案する。
詳細は、いくつかの貢献をします。
(i)実世界の鉄道データセットである rail-db を7432対のイメージとアノテーションで提供する。
画像は照明、道路構造、ビューの異なる状況から収集される。
レールはポリラインでラベル付けされ、画像は9つのシーンに分類される。
Rail-DBは、レール検出アルゴリズムの改善を促進することが期待されている。
(ii)軽量畳み込みバックボーンとアンカー分類器を備えた効率的な行ベースレール検出手法である rail-net を提案する。
具体的には, レール検出の過程を行選択問題として定式化する。
この戦略は、代替セグメンテーション法と比較して計算コストを削減する。
(iii) resnet から vision transformer までのクロスシーン設定やネットワークバックボーンを含む広範な実験を行い, rail-db 上の rail-net を評価した。
提案手法は,速度と精度の両面で有望な性能を達成する。
軽量版は92.77%の精度と312フレーム/秒を達成した。
レールネットは従来の手法を50.65%、セグメンテーションを5.86%上回る。
データベースとコードは、https://github.com/Sampson-Lee/Rail-Detection.comで入手できる。
関連論文リスト
- Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - DALNet: A Rail Detection Network Based on Dynamic Anchor Line [5.413443050594989]
鉄道検出は、インテリジェントな列車にとって重要な要素の1つである。
我々は動的アンカー線に基づくDALNetと呼ばれる鉄道検出ネットワークを提案する。
論文 参考訳(メタデータ) (2023-08-22T12:12:59Z) - Bridging Vision and Language Encoders: Parameter-Efficient Tuning for
Referring Image Segmentation [72.27914940012423]
画像セグメンテーションの参照における効率的なチューニング問題について検討する。
クロスモーダル情報交換を容易にするBridgerと呼ばれる新しいアダプタを提案する。
画像分割のための軽量デコーダも設計する。
論文 参考訳(メタデータ) (2023-07-21T12:46:15Z) - TPE-Net: Track Point Extraction and Association Network for Rail Path
Proposal Generation [1.9181913148426697]
本稿では,TPE-Netと呼ばれる畳み込み型エンコーダデコーダアーキテクチャを提案する。
カメラパラメータや3Dデータ、幾何学的制約に依存することなく、強力な鉄道経路仮説を生成する。
論文 参考訳(メタデータ) (2023-02-11T22:49:06Z) - Real-time Rail Recognition Based on 3D Point Clouds [3.0980025155565376]
3次元点雲に基づくリアルタイム鉄道認識手法を提案し, 乱れや不均一密度, 点雲の大量化といった課題を解決する。
各ボクセルとレール位置の予測結果を生成するために,マルチスケールニューラルネットワークを提案する。
その結果, この手法は直線, 曲線, その他の複雑なトポロジを検出するのに優れた性能を示した。
論文 参考訳(メタデータ) (2022-01-08T01:42:02Z) - Intelligent Railway Foreign Object Detection: A Semi-supervised
Convolutional Autoencoder Based Method [7.557470133155959]
本研究では,鉄道軌道画像のみを必要とする半教師付き畳み込みオートエンコーダに基づくフレームワークを開発した。
提案するフレームワークは,IoT(Internet-of-Things)システムのデータ分析に有用である。
論文 参考訳(メタデータ) (2021-08-05T07:32:23Z) - Learnable Online Graph Representations for 3D Multi-Object Tracking [156.58876381318402]
3D MOT問題に対する統一型学習型アプローチを提案します。
我々は、完全にトレーニング可能なデータアソシエーションにNeural Message Passing Networkを使用します。
AMOTAの65.6%の最先端性能と58%のIDスウィッチを達成して、公開可能なnuScenesデータセットに対する提案手法のメリットを示す。
論文 参考訳(メタデータ) (2021-04-23T17:59:28Z) - A Unified Light Framework for Real-time Fault Detection of Freight Train
Images [16.721758280029302]
貨物列車のリアルタイム故障検出は、鉄道輸送の安全と最適運転を保証する上で重要な役割を担っている。
深層学習に基づくアプローチの有望な結果にもかかわらず、貨物列車画像におけるこれらの断層検出器の性能は精度と効率の両立には程遠い。
本稿では,リソース要求の少ないリアルタイム動作をサポートしながら,検出精度を向上させるための統一光フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-31T05:10:20Z) - Automatic Counting and Identification of Train Wagons Based on Computer
Vision and Deep Learning [70.84106972725917]
提案手法は費用対効果が高く,RFIDに基づく解を容易に置き換えることができる。
このシステムは、識別コードに損傷があるため、列車のワゴンの一部を自動的に拒絶することができる。
論文 参考訳(メタデータ) (2020-10-30T14:56:54Z) - Photon-Driven Neural Path Guiding [102.12596782286607]
本稿では,スパース標本群から誘導される経路の高品質なサンプリング分布を再構築するニューラルパス誘導手法を提案する。
我々は、光源から追跡した光子をサンプリング密度再構成の入力として利用し、強力なグローバル照明の挑戦シーンに非常に効果的である。
提案手法は,従来の最先端の経路案内手法よりも,テストシーンのレンダリング結果が大幅に向上する。
論文 参考訳(メタデータ) (2020-10-05T04:54:01Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。