論文の概要: Contrastive Learning for Lane Detection via cross-similarity
- arxiv url: http://arxiv.org/abs/2308.08242v1
- Date: Wed, 16 Aug 2023 09:16:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 14:02:52.600042
- Title: Contrastive Learning for Lane Detection via cross-similarity
- Title(参考訳): 相互相似性を用いたレーン検出のためのコントラスト学習
- Authors: Ali Zoljodi, Sadegh Abadijou, Mina Alibeigi, Masoud Daneshtalab
- Abstract要約: レーンマーキングは以前の形状が強いが、視認性は容易に損なわれる。
視界の低さによる自然の変化に耐えられる車線検出アプローチを訓練するには、大量のデータが必要である。
クロスシミラリティ(CLLD)による車線検出のためのコントラスト学習(Contrastive Learning for Lane Detection)は,自己教師あり学習手法である。
- 参考スコア(独自算出の注目度): 0.5735035463793009
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Detecting road lanes is challenging due to intricate markings vulnerable to
unfavorable conditions. Lane markings have strong shape priors, but their
visibility is easily compromised. Factors like lighting, weather, vehicles,
pedestrians, and aging colors challenge the detection. A large amount of data
is required to train a lane detection approach that can withstand natural
variations caused by low visibility. This is because there are numerous lane
shapes and natural variations that exist. Our solution, Contrastive Learning
for Lane Detection via cross-similarity (CLLD), is a self-supervised learning
method that tackles this challenge by enhancing lane detection models
resilience to real-world conditions that cause lane low visibility. CLLD is a
novel multitask contrastive learning that trains lane detection approaches to
detect lane markings even in low visible situations by integrating local
feature contrastive learning (CL) with our new proposed operation
cross-similarity. Local feature CL focuses on extracting features for small
image parts, which is necessary to localize lane segments, while
cross-similarity captures global features to detect obscured lane segments
using their surrounding. We enhance cross-similarity by randomly masking parts
of input images for augmentation. Evaluated on benchmark datasets, CLLD
outperforms state-of-the-art contrastive learning, especially in
visibility-impairing conditions like shadows. Compared to supervised learning,
CLLD excels in scenarios like shadows and crowded scenes.
- Abstract(参考訳): 道路レーンの検出は、不利な状況に弱い複雑なマーキングのため困難である。
レーンマーキングは以前の形状が強いが、視認性は容易に損なわれる。
照明、天気、車両、歩行者、老朽化した色などの要因は、検出に挑戦する。
低可視性に起因する自然変動に耐えられるレーン検出アプローチの訓練には大量のデータが必要である。
これは、多数の車線形状と自然変化が存在するためである。
我々のソリューションであるCLLD(Contrastive Learning for Lane Detection via cross-similarity)は、車線検出モデルレジリエンスを現実の環境に拡張し、車線視認性を低下させる自己教師付き学習手法である。
CLLDは,低可視環境下でも車線検出アプローチを訓練し,局所特徴コントラスト学習(CL)と新たな操作相似性を統合することで,車線検出アプローチを訓練する,新しいマルチタスクコントラスト学習である。
局所的な特徴clは、レーンセグメントをローカライズするために必要な小さな画像部分の抽出に重点を置いているが、クロス類似性は、周囲の不明瞭なレーンセグメントを検出するためにグローバルな特徴をキャプチャする。
入力画像の一部をランダムにマスキングすることで類似性を高める。
ベンチマークデータセットで評価すると、clldは最先端のコントラスト学習、特にシャドウのような可視性障害条件よりも優れている。
教師付き学習と比較して、CLLDは影や混雑したシーンのようなシナリオに優れています。
関連論文リスト
- LDTR: Transformer-based Lane Detection with Anchor-chain Representation [11.184960972042406]
限定的あるいは非視覚的な車線検出シナリオは、自動走行において依然として困難で不可欠である。
これらの問題に対処するためのトランスモデルであるLDTRを提案する。
実験により、LDTRはよく知られたデータセット上で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-21T12:29:26Z) - LVLane: Deep Learning for Lane Detection and Classification in
Challenging Conditions [2.5641096293146712]
本稿では,ディープラーニング手法に基づくエンドツーエンドの車線検出・分類システムを提案する。
本研究では,最新技術(SOTA)レーンローカライゼーションモデルにおいて重要な課題を提起するシナリオを包含する,厳密にキュレートされたユニークなデータセットを提案する。
そこで本研究では,CNNをベースとした検知器とシームレスに統合し,異なるレーンの識別を容易にする分類手法を提案する。
論文 参考訳(メタデータ) (2023-07-13T16:09:53Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Repainting and Imitating Learning for Lane Detection [52.5220065495956]
現行の車線検出手法は、重い影による視認性車線問題に苦慮している。
本稿では,教師と学生のペアを含む新しいリペイント・イミメーティング学習フレームワークを提案する。
提案手法は,推定中に余分な時間的コストを伴わず,様々な最先端車線検出ネットワークでプラグアンドプレイが可能となる。
論文 参考訳(メタデータ) (2022-10-11T02:26:39Z) - Dual Contrastive Learning for General Face Forgery Detection [64.41970626226221]
本稿では,正と負のペアデータを構成するDCL (Dual Contrastive Learning) という新しい顔偽造検出フレームワークを提案する。
本研究は, 事例内コントラスト学習(Intra-ICL)において, 偽造顔における局所的内容の不整合に焦点をあてる。
論文 参考訳(メタデータ) (2021-12-27T05:44:40Z) - Semantically Contrastive Learning for Low-light Image Enhancement [48.71522073014808]
低照度画像強調(LLE)は、単一のRGB画像の低コントラストと低可視性の問題が好ましくないため、依然として困難である。
LLE(SCL-LLE)のための効果的な意味論的コントラスト学習パラダイムを提案する。
提案手法は6つの独立したクロスシーンデータセット上で,最先端のLLEモデルを上回る。
論文 参考訳(メタデータ) (2021-12-13T07:08:33Z) - MC-LCR: Multi-modal contrastive classification by locally correlated
representations for effective face forgery detection [11.124150983521158]
局所的関連表現を用いたマルチモーダルコントラスト分類法を提案する。
我々のMC-LCRは、空間領域と周波数領域の両方から真偽顔と偽顔の暗黙の局所的不一致を増幅することを目的としている。
我々は最先端の性能を達成し,本手法の堅牢性と一般化を実証する。
論文 参考訳(メタデータ) (2021-10-07T09:24:12Z) - Local Relation Learning for Face Forgery Detection [73.73130683091154]
局所的関係学習による顔の偽造検出の新たな視点を提案する。
具体的には,局所的な特徴間の類似度を測定するMPSM(Multi-scale Patch similarity Module)を提案する。
また、より包括的な局所特徴表現のために、RGBおよび周波数領域の情報を融合するRGB-Frequency Attention Module (RFAM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T10:44:32Z) - Pluggable Weakly-Supervised Cross-View Learning for Accurate Vehicle
Re-Identification [53.6218051770131]
クロスビューの一貫した機能表現は、正確な車両ReIDの鍵です。
既存のアプローチは、広範な余分な視点アノテーションを使用して、クロスビュー学習を監督する。
Weakly-supervised Cross-View Learning (WCVL) モジュールを車載用として提案する。
論文 参考訳(メタデータ) (2021-03-09T11:51:09Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。