論文の概要: Contrastive Learning for Lane Detection via cross-similarity
- arxiv url: http://arxiv.org/abs/2308.08242v4
- Date: Tue, 20 Aug 2024 08:11:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 20:51:22.437561
- Title: Contrastive Learning for Lane Detection via cross-similarity
- Title(参考訳): 相互相似性を用いた車線検出のためのコントラスト学習
- Authors: Ali Zoljodi, Sadegh Abadijou, Mina Alibeigi, Masoud Daneshtalab,
- Abstract要約: 道路シーンのレーンマークは、その複雑な性質が好ましくない条件に影響を受けやすいため、課題となる。
実世界のシナリオにおいて、車線検出モデルのレジリエンスを高めるために、CLLD(cross-similarity)による車線検出のためのコントラスト学習を提案する。
- 参考スコア(独自算出の注目度): 0.5249805590164902
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting lane markings in road scenes poses a challenge due to their intricate nature, which is susceptible to unfavorable conditions. While lane markings have strong shape priors, their visibility is easily compromised by lighting conditions, occlusions by other vehicles or pedestrians, and fading of colors over time. The detection process is further complicated by the presence of several lane shapes and natural variations, necessitating large amounts of data to train a robust lane detection model capable of handling various scenarios. In this paper, we present a novel self-supervised learning method termed Contrastive Learning for Lane Detection via cross-similarity (CLLD) to enhance the resilience of lane detection models in real-world scenarios, particularly when the visibility of lanes is compromised. CLLD introduces a contrastive learning (CL) method that assesses the similarity of local features within the global context of the input image. It uses the surrounding information to predict lane markings. This is achieved by integrating local feature contrastive learning with our proposed cross-similar operation. The local feature CL concentrates on extracting features from small patches, a necessity for accurately localizing lane segments. Meanwhile, cross-similarity captures global features, enabling the detection of obscured lane segments based on their surroundings. We enhance cross-similarity by randomly masking portions of input images in the process of augmentation. Extensive experiments on TuSimple and CuLane benchmarks demonstrate that CLLD outperforms SOTA contrastive learning methods, particularly in visibility-impairing conditions like shadows, while it also delivers comparable results under normal conditions. Compared to supervised learning, CLLD still excels in challenging scenarios such as shadows and crowded scenes, which are common in real-world driving.
- Abstract(参考訳): 道路シーンにおける車線標識の検出は、その複雑な性質が好ましくない条件に影響を受けやすいため、課題となる。
レーンマーキングは前もって強い形状をしているが、その視認性は照明条件、他の車両や歩行者による閉塞、時間の経過とともに色が消えることによって容易に損なわれる。
検出プロセスは、いくつかのレーン形状と自然変動の存在によりさらに複雑であり、様々なシナリオを扱える堅牢なレーン検出モデルを訓練するために大量のデータを必要とする。
本稿では,実世界のシナリオにおける車線検出モデルのレジリエンスを高めるために,車線検出のためのコントラスト学習法であるCLLD(Contrastive Learning for Lane Detection)を提案する。
CLLDは、入力画像のグローバルコンテキスト内の局所的特徴の類似性を評価する、コントラッシブラーニング(CL)手法を導入する。
周囲の情報を使ってレーンマーキングを予測する。
これは,提案したクロスシミラ演算と局所特徴比較学習を統合することで実現される。
局所的な特徴CLは小さなパッチから特徴を抽出することに集中している。
一方、異種間の類似性はグローバルな特徴を捉え、周囲に基づいて不明瞭な車線セグメントを検出することができる。
増大過程において入力画像の一部をランダムにマスキングすることで、相似性を向上する。
TuSimpleとCuLaneのベンチマークによる大規模な実験では、CLLDはSOTAの対照的な学習方法、特にシャドーのような視認性に欠ける条件において優れており、通常の条件下では同等の結果をもたらす。
教師付き学習と比較すると、CLLDはいまだに現実の運転で一般的な影や混雑したシーンのような困難なシナリオに長けている。
関連論文リスト
- LDTR: Transformer-based Lane Detection with Anchor-chain Representation [11.184960972042406]
限定的あるいは非視覚的な車線検出シナリオは、自動走行において依然として困難で不可欠である。
これらの問題に対処するためのトランスモデルであるLDTRを提案する。
実験により、LDTRはよく知られたデータセット上で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-21T12:29:26Z) - LVLane: Deep Learning for Lane Detection and Classification in
Challenging Conditions [2.5641096293146712]
本稿では,ディープラーニング手法に基づくエンドツーエンドの車線検出・分類システムを提案する。
本研究では,最新技術(SOTA)レーンローカライゼーションモデルにおいて重要な課題を提起するシナリオを包含する,厳密にキュレートされたユニークなデータセットを提案する。
そこで本研究では,CNNをベースとした検知器とシームレスに統合し,異なるレーンの識別を容易にする分類手法を提案する。
論文 参考訳(メタデータ) (2023-07-13T16:09:53Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Repainting and Imitating Learning for Lane Detection [52.5220065495956]
現行の車線検出手法は、重い影による視認性車線問題に苦慮している。
本稿では,教師と学生のペアを含む新しいリペイント・イミメーティング学習フレームワークを提案する。
提案手法は,推定中に余分な時間的コストを伴わず,様々な最先端車線検出ネットワークでプラグアンドプレイが可能となる。
論文 参考訳(メタデータ) (2022-10-11T02:26:39Z) - Dual Contrastive Learning for General Face Forgery Detection [64.41970626226221]
本稿では,正と負のペアデータを構成するDCL (Dual Contrastive Learning) という新しい顔偽造検出フレームワークを提案する。
本研究は, 事例内コントラスト学習(Intra-ICL)において, 偽造顔における局所的内容の不整合に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-27T05:44:40Z) - Semantically Contrastive Learning for Low-light Image Enhancement [48.71522073014808]
低照度画像強調(LLE)は、単一のRGB画像の低コントラストと低可視性の問題が好ましくないため、依然として困難である。
LLE(SCL-LLE)のための効果的な意味論的コントラスト学習パラダイムを提案する。
提案手法は6つの独立したクロスシーンデータセット上で,最先端のLLEモデルを上回る。
論文 参考訳(メタデータ) (2021-12-13T07:08:33Z) - MC-LCR: Multi-modal contrastive classification by locally correlated
representations for effective face forgery detection [11.124150983521158]
局所的関連表現を用いたマルチモーダルコントラスト分類法を提案する。
我々のMC-LCRは、空間領域と周波数領域の両方から真偽顔と偽顔の暗黙の局所的不一致を増幅することを目的としている。
我々は最先端の性能を達成し,本手法の堅牢性と一般化を実証する。
論文 参考訳(メタデータ) (2021-10-07T09:24:12Z) - Local Relation Learning for Face Forgery Detection [73.73130683091154]
局所的関係学習による顔の偽造検出の新たな視点を提案する。
具体的には,局所的な特徴間の類似度を測定するMPSM(Multi-scale Patch similarity Module)を提案する。
また、より包括的な局所特徴表現のために、RGBおよび周波数領域の情報を融合するRGB-Frequency Attention Module (RFAM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T10:44:32Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。