論文の概要: CLRmatchNet: Enhancing Curved Lane Detection with Deep Matching Process
- arxiv url: http://arxiv.org/abs/2309.15204v2
- Date: Sun, 31 Mar 2024 20:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 15:34:46.260500
- Title: CLRmatchNet: Enhancing Curved Lane Detection with Deep Matching Process
- Title(参考訳): CLRmatchNet:ディープマッチングプロセスによる曲線線検出の強化
- Authors: Sapir Kontente, Roy Orfaig, Ben-Zion Bobrovsky,
- Abstract要約: レーン検出は、安全なナビゲーションを確保するために重要なデータを提供することによって、自動運転において重要な役割を果たす。
現代のアルゴリズムはアンカーベースの検出器に依存しており、ラベル割り当てプロセスによってトレーニング検出を正または負のインスタンスに分類する。
我々の研究は、ラベル割り当てプロセスを改善することを目的とした、ディープラーニングサブモジュールベースのアプローチであるMatchNetを紹介した。
- 参考スコア(独自算出の注目度): 0.6144680854063939
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection plays a crucial role in autonomous driving by providing vital data to ensure safe navigation. Modern algorithms rely on anchor-based detectors, which are then followed by a label-assignment process to categorize training detections as positive or negative instances based on learned geometric attributes. Accurate label assignment has great impact on the model performance, that is usually relying on a pre-defined classical cost function evaluating GT-prediction alignment. However, classical label assignment methods face limitations due to their reliance on predefined cost functions derived from low-dimensional models, potentially impacting their optimality. Our research introduces MatchNet, a deep learning submodule-based approach aimed at improving the label assignment process. Integrated into a state-of-the-art lane detection network such as the Cross Layer Refinement Network for Lane Detection (CLRNet), MatchNet replaces the conventional label assignment process with a submodule network. The integrated model, CLRmatchNet, surpasses CLRNet, showing substantial improvements in scenarios involving curved lanes, with remarkable improvement across all backbones of +2.8% for ResNet34, +2.3% for ResNet101, and +2.96% for DLA34. In addition, it maintains or even improves comparable results in other sections. Our method boosts the confidence level in lane detection, allowing an increase in the confidence threshold. Our code is available at: https://github.com/sapirkontente/CLRmatchNet.git
- Abstract(参考訳): レーン検出は、安全なナビゲーションを確保するために重要なデータを提供することによって、自動運転において重要な役割を果たす。
現代のアルゴリズムはアンカーベースの検出器に依存しており、学習された幾何学的属性に基づいてトレーニング検出を正または負のインスタンスとして分類するラベル割り当てプロセスが続く。
正確なラベル割り当てはモデル性能に大きな影響を与え、通常はGT予測アライメントを評価する古典的コスト関数に依存している。
しかし、古典的なラベル割り当て手法は、低次元モデルから導かれる事前定義されたコスト関数に依存するため、その最適性に影響を及ぼす可能性があるため、制限に直面している。
我々の研究は、ラベル割り当てプロセスを改善することを目的とした、ディープラーニングサブモジュールベースのアプローチであるMatchNetを紹介した。
CLRNet(Cross Layer Refinement Network for Lane Detection)のような最先端のレーン検出ネットワークに統合され、MatchNetは従来のラベル割り当てプロセスをサブモジュールネットワークに置き換える。
統合モデルであるCLRmatchNetはCLRNetを抜いて、カーブしたレーンを含むシナリオを大幅に改善し、ResNet34の+2.8%、ResNet101の+2.3%、DLA34の+2.96%のすべてのバックボーンが大幅に改善された。
さらに、他のセクションで同等の結果を維持するか、改善する。
本手法は車線検出における信頼度を高め,信頼性閾値の上昇を可能にする。
私たちのコードは、https://github.com/sapirkontente/CLRmatchNet.gitで利用可能です。
関連論文リスト
- CLRKDNet: Speeding up Lane Detection with Knowledge Distillation [4.015241891536452]
本稿では,検出精度とリアルタイム性能のバランスをとる合理化モデルであるCLRKDNetを紹介する。
提案手法はCLRNetに匹敵する検出精度を維持しつつ,推論時間を最大60%削減する。
論文 参考訳(メタデータ) (2024-05-21T05:20:04Z) - Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - AdaTriplet-RA: Domain Matching via Adaptive Triplet and Reinforced
Attention for Unsupervised Domain Adaptation [15.905869933337101]
教師なしドメイン適応(Unsupervised Domain Adaption、UDA)は、ソースドメインのデータとアノテーションが利用できるが、トレーニング中にラベル付けされていないターゲットデータにのみアクセスできるトランスファー学習タスクである。
本稿では、ドメイン間サンプルマッチング方式を用いて、教師なしドメイン適応タスクを改善することを提案する。
ドメイン間サンプルに合わせるために,広く利用され,堅牢なTriplet損失を適用した。
トレーニング中に発生する不正確な擬似ラベルの破滅的効果を低減するため,信頼度の高い擬似ラベルを自動的に選択し,段階的に改良する新しい不確実性測定法を提案する。
論文 参考訳(メタデータ) (2022-11-16T13:04:24Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Learning to Rectify for Robust Learning with Noisy Labels [25.149277009932423]
分類ネットワークのトレーニング手順を適応的に修正するためのワープ確率推論(WarPI)を提案する。
雑音ラベルによる頑健な学習の4つのベンチマークでWarPIを評価し, 異種雑音下での新たな最先端の学習を実現する。
論文 参考訳(メタデータ) (2021-11-08T02:25:50Z) - Towards Reducing Labeling Cost in Deep Object Detection [61.010693873330446]
本稿では,検知器の不確実性と頑健性の両方を考慮した,アクティブラーニングのための統一的なフレームワークを提案する。
提案手法は, 確率分布のドリフトを抑えながら, 極めて確実な予測を擬似ラベル化することができる。
論文 参考訳(メタデータ) (2021-06-22T16:53:09Z) - Cascade Network with Guided Loss and Hybrid Attention for Finding Good
Correspondences [33.65360396430535]
画像対の対応セットが与えられた場合、バイナリクラス分類器によって正しい対応を見つけるニューラルネットワークを提案する。
対象関数を動的に調整するためのガイダンスとして評価基準(Fn測度)を直接利用できる新しいガイド付き損失を提案する。
次に、ベイズ文脈正規化(BACN)とチャネルワイドアテンション(CA)を統合した特徴抽出のためのハイブリッドアテンションブロックを提案する。
論文 参考訳(メタデータ) (2021-01-31T08:33:20Z) - Fully Dynamic Inference with Deep Neural Networks [19.833242253397206]
Layer-Net(L-Net)とChannel-Net(C-Net)と呼ばれる2つのコンパクトネットワークは、どのレイヤやフィルタ/チャネルが冗長であるかをインスタンス毎に予測する。
CIFAR-10データセットでは、LC-Netは11.9$times$ less floating-point Operations (FLOPs) となり、他の動的推論手法と比較して最大3.3%精度が向上する。
ImageNetデータセットでは、LC-Netは最大1.4$times$ FLOPsを減らし、Top-1の精度は他の方法よりも4.6%高い。
論文 参考訳(メタデータ) (2020-07-29T23:17:48Z) - SADet: Learning An Efficient and Accurate Pedestrian Detector [68.66857832440897]
本稿では,一段検出器の検出パイプラインに対する一連の最適化手法を提案する。
効率的な歩行者検出のための単発アンカーベース検出器(SADet)を形成する。
構造的には単純だが、VGA解像度の画像に対して最先端の結果と20ドルFPSのリアルタイム速度を示す。
論文 参考訳(メタデータ) (2020-07-26T12:32:38Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。