論文の概要、ライセンス

# (参考訳) ディープハフ変換を用いた半教師付きレーン検出 [全文訳有]

Semi-supervised lane detection with Deep Hough Transform ( http://arxiv.org/abs/2106.05094v1 )

ライセンス: CC BY 4.0
Yancong Lin, Silvia-Laura Pintea, Jan van Gemert(参考訳) レーン検出に関する現在の研究は、大規模な手動注釈付きデータセットに依存している。 私たちは、巨大な安価で手に入らないデータを活用することでアノテーションへの依存を減らす。 本研究では,ハフ空間におけるレーンの幾何学的知識を利用した新たな損失関数を提案する。 レーンを別々のチャネルに分割することで、単純なグローバルマックスプールを通じて各レーンをローカライズすることができます。 最大値の位置はレーンのレイアウトを符号化し、強度はレーンが存在する確率を示す。 最大ビンの対数確率の最大化は、ニューラルネットワークがラベルなしで車線を見つけるのに役立つ。 CULane と TuSimple のデータセットから,提案したHough Transform の損失は,大量の未ラベル画像から学習することで,性能を著しく向上することを示す。

Current work on lane detection relies on large manually annotated datasets. We reduce the dependency on annotations by leveraging massive cheaply available unlabelled data. We propose a novel loss function exploiting geometric knowledge of lanes in Hough space, where a lane can be identified as a local maximum. By splitting lanes into separate channels, we can localize each lane via simple global max-pooling. The location of the maximum encodes the layout of a lane, while the intensity indicates the the probability of a lane being present. Maximizing the log-probability of the maximal bins helps neural networks find lanes without labels. On the CULane and TuSimple datasets, we show that the proposed Hough Transform loss improves performance significantly by learning from large amounts of unlabelled images.
公開日: Wed, 9 Jun 2021 14:17:29 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
SEMI-SUPERVISED LANE DETECTION WITH DEEP HOUGH TRANSFORM ディープフーガ変換による半可視領域検出 0.40
Yancong Lin Yancong (複数形 Yancongs) 0.32
Silvia-Laura Pintea Silvia (複数形 Silvias) 0.34
Jan van Gemert Jan van Gemert 0.85
Vision Lab, Delft University of Technology, The Netherlands オランダのデルフト工科大学視覚研究室 0.51
1 2 0 2 n u J 1 2 0 2 n u J 0.85
9 ] V C . 9 ] 略称はC。 0.73
s c [ 1 v 4 9 0 5 0 sc [ 1 v 4 9 0 5 0 0.68
. 6 0 1 2 : v i X r a . 6 0 1 2 : v i X r a 0.85
ABSTRACT Current work on lane detection relies on large manually annotated datasets. ABSTRACT レーン検出に関する現在の研究は、大規模な手動注釈付きデータセットに依存している。 0.66
We reduce the dependency on annotations by leveraging massive cheaply available unlabelled data. 私たちは、巨大な安価で手に入らないデータを活用することでアノテーションへの依存を減らす。 0.47
We propose a novel loss function exploiting geometric knowledge of lanes in Hough space, where a lane can be identified as a local maximum. 本研究では,ハフ空間におけるレーンの幾何学的知識を利用した新たな損失関数を提案する。 0.57
By splitting lanes into separate channels, we can localize each lane via simple global max-pooling. レーンを別々のチャネルに分割することで、単純なグローバルマックスプールを通じて各レーンをローカライズすることができます。 0.53
The location of the maximum encodes the layout of a lane, while the intensity indicates the the probability of a lane being present. 最大値の位置はレーンのレイアウトを符号化し、強度はレーンが存在する確率を示す。 0.56
Maximizing the log-probability of the maximal bins helps neural networks find lanes without labels. 最大ビンの対数確率の最大化は、ニューラルネットワークがラベルなしで車線を見つけるのに役立つ。 0.53
On the CULane and TuSimple datasets, we show that the proposed Hough Transform loss improves performance significantly by learning from large amounts of unlabelled images. CULane と TuSimple のデータセットから,提案したHough Transform の損失は,大量の未ラベル画像から学習することで,性能を著しく向上することを示す。 0.76
Index Terms— Lane detection, Hough Transform, semi- Index Terms - Lane Detection, Hough Transform, semi- 0.96
supervised learning 1. INTRODUCTION 教師付き学習 1. 導入 0.63
One key component of self-driving cars is the lane-keeping assist [1, 2], which actively keeps the vehicles in the marked lanes. 自動運転車の重要なコンポーネントの1つは車線維持アシスト[1, 2]で、マークされた車線に車両をアクティブに保持する。 0.73
The lane-keeping assist relies on accurate lane detection in the wild, which is a highly challenging task because of illumination and appearance variations, traffic flow, and new unseen driving scenarios [3]. レーンキーピングアシストは野生の正確な車線検出に依存しているが、これは照明や外観の変化、交通の流れ、新しい目に見えない運転シナリオ [3] のために非常に難しい課題である。 0.64
State-of-the-art deep learning methods for lane detection perform remarkably well on benchmark datasets [3, 4, 5, 6]. レーン検出のための最先端のディープラーニング手法は,ベンチマークデータセット [3, 4, 5, 6] で著しく機能する。 0.66
However, they rely on deep networks powered by massive amounts of labelled data. しかし、大量のラベル付きデータを利用したディープネットワークに依存している。 0.69
Although the data itself can be obtained at relatively low cost, it’s their annotations that are laborious and thus expensive [7]. データ自体は比較的低コストで取得できますが、そのアノテーションは面倒で高価です [7]。
訳抜け防止モード: しかし、データ自体は比較的低コストで得ることができる。 それは彼らのアノテーションであり、残酷で、従って高価です [7]。
0.68
Moreover, the existing curated datasets do not cover all the possible driving scenarios that could be encountered in real-world situations. さらに、既存のキュレーションされたデータセットは、現実の状況で遭遇する可能性のあるすべての運転シナリオをカバーできない。 0.66
Being able to leverage additional realistic unlabelled training data would allow for a more robust lane detection system. より現実的な未ラベルのトレーニングデータを活用できれば、より堅牢な車線検出システムが可能になる。 0.67
To make effective use of additional unlabelled data, we propose a semi-supervised Hough Transform-based loss which exploits geometric prior knowledge of lanes in the Hough space [8, 9]. 追加のラベルなしデータを有効に利用するために,ハフ空間 [8, 9] におけるレーンの幾何学的事前知識を利用する半教師付きハフ変換に基づく損失を提案する。 0.67
Lanes are lines, thus we propose a semi-supervised Hough Transform loss that parameterizes lines in Hough space, by mapping them to individual bins represented by an offset and そこで我々は、半教師付きハフ変換損失を提案し、ハフ空間内の線をオフセットで表される個々のビンにマッピングし、パラメータ化する。 0.63
an angle. Inspired by the work in [9], we rely on a trainable Hough Transform and Inverse Hough Transform (HT -IHT ) module embedded into a neural network to learn Hough representations for lane detection. 角度だ 9]での作業に触発されて、ニューラルネットワークに埋め込まれたトレーニング可能なHough TransformとInverse Hough Transform (HT -IHT )モジュールを使用して、レーン検出のためのHough表現を学習する。 0.66
We subsequently extend its use for semi-supervised training, by noting that the presence of lanes leads to Hough bins with maximal votes. その後、レーンの存在がHough binsの最大投票につながることを指摘して、セミ教師付きトレーニングの使用を拡大する。 0.59
Maximizing the log-probability of these Hough bins requires no human supervision, enabling the network to detect lanes in unlabelled images. これらのハフビンのログプロベイラビリティを最大化するためには、人間の監督は不要であり、ネットワークはラベルなしの画像のレーンを検出することができる。 0.48
This paper makes the following contributions: (1) we present an annotation-efficient approach for lane detection in a semi-supervised way; (2) to this end, we propose a novel loss function to exploit prior geometric knowledge of lanes in Hough space; (3) we experimentally show improved performance on the CULane [10] and TuSimple [11] datasets, given large amounts of unlabelled data. 本稿では,(1)半教師あり方式のレーン検出のためのアノテーション効率の高いアプローチを提案し,(2)ハフ空間におけるレーンの事前幾何学的知識を活用するための新しい損失関数を提案する。(3)大量のラベルなしデータに対して,culane [10] と tusimple [11] データセットの性能改善を実験的に示す。 0.77
2. RELATED WORK Lane detection methods. 2. 関連作業 レーン検出方法。 0.68
Classic work on lane detection is based on knowledge-based manually designed geometric features. レーン検出に関する古典的な研究は、知識に基づく幾何学的特徴に基づくものである。 0.53
Examples include grouping image gradients [12, 13, 14, 15], or line detection techniques through Hough Transform [16, 17, 18, 19] relying on local edges extracted using image gradients. 例えば、画像勾配 [12, 13, 14, 15] またはハフ変換 [16, 17, 18, 19] による線検出技術は、画像勾配を用いて抽出された局所エッジに依存する。 0.80
A main drawback of such knowledgebased methods is their inability to handle complex scenarios where traffic flow and illumination conditions change dramatically. このような知識ベース手法の主な欠点は、交通の流れや照明条件が劇的に変化する複雑なシナリオを扱うことができないことである。
訳抜け防止モード: このような知識に基づく方法の主な欠点は 交通の流れや照明条件が劇的に変化する複雑なシナリオを処理する。
0.79
Here, we address this by learning appearance variation of lanes in a deep network, while still relying on the Hough Transform as prior knowledge for line detection [8, 9]. ここでは,線検出の先行知識としてHough Transformを引き続き活用しながら,ディープネットワークにおけるレーンの外観変化を学習することでこの問題に対処する [8, 9]。 0.83
Recently, deep neural networks have been employed for efficient lane detection, replacing well-engineered features. 近年,高効率レーン検出にディープニューラルネットワークが採用されている。 0.58
Typically, the learning-based methods treat the lane detection as a semantic segmentation task and learn semantic features from large datasets [1, 20, 21, 22, 23, 24]. 通常、学習に基づく手法では、レーン検出を意味的セグメンテーションタスクとして扱い、大きなデータセット [1, 20, 21, 22, 23 24] から意味的特徴を学習する。 0.70
In contrast to these works we improve the prediction accuracy by leveraging massive unlabelled data through semi-supervised learning. これらの研究とは対照的に、半教師付き学習を通じて大量の未学習データを活用することにより、予測精度を向上させる。
訳抜け防止モード: これらの研究とは対照的に、予測精度は向上する。 半教師付き学習による巨大な未学習データの利用。
0.50
Semi-supervised methods. Semi-supervised methods solve the learning task by relying on both labelled and unlabelled data [25], and are divided into: inductive approaches constructing a classifier over labelled and unlabelled data [26, 27, 28], and transductive approaches propagating where the task information is shared between data points [29, 30, 31]. 半教師方式。 半教師付き方法はラベル付きデータ[25]とラベル付きデータ[26,27,28]の両方に依存して学習課題を解決し、ラベル付きデータ[26,27,28]に分類器を構築する帰納的アプローチと、タスク情報がデータポイント[29,30,31]間で共有される場所を伝播する帰納的アプローチとに分けられる。
訳抜け防止モード: 半教師方式。 ラベル付きデータと非ラベル付きデータの両方に依存して学習課題を解決する半教師付き手法 [25 ] inductive approach constructing a classifier over a labeled and unlabelled data [26, 27, 28 ] トランスダクティブなアプローチは タスク情報はデータポイント[29,30,31]間で共有されます。
0.61
英語(論文から抽出)日本語訳スコア
histogram, where Nρ and Nθ are the number of discrete offsets and angles. ヒストグラムは nρ と nθ は離散オフセットと角度の数である。 0.78
Pixels along lines in F are mapped into discrete pairs of offsets ρ and angles θ. Specifically, given a line direction indexed by i with its corresponding pixels (xi, yi), they all vote in the Hough space for the closest bin (ρ, θ): f の直線に沿った画素は、オフセット ρ と角度 θ の離散対にマッピングされる。具体的には、i が対応する画素 (xi, yi) にインデックス付けした直線方向が与えられると、それらはすべて最も近いビン (ρ, θ) のハフ空間で投票される。 0.68
HT (ρ, θ) = HT (ρ, θ) = 0.85
F (xi, yi), F (xi, yi) 0.70
(1) (cid:88) (1) (cid:88) 0.82
i where the mapping is given by ρ = xi cos θ + yi sin θ. 私は ここで写像は ρ = xi cos θ + yi sin θ で与えられる。 0.67
We perform a set of 1D convolutions in Hough space over the offset direction and apply an Inverse Hough Transform IHT module mapping the [Nρ × Nθ] Hough histogram back to an [H × W ] feature map [9]. オフセット方向上のハフ空間の1次元畳み込みを行い、[Nρ × Nθ]ハフヒストグラムを[H × W ]特徴写像 [9] に写像する逆ハフ変換IHT加群を適用する。 0.67
The IHT maps bins (ρ, θ) to pixels (xi, yi) by averaging all the HT bins where a certain pixel has voted: IHT は、あるピクセルが投票したすべての HT ビンを平均化することにより、bins (ρ, θ) をピクセル (xi, yi) にマッピングする。 0.71
IHT (xi, yi) = IHT (xi, yi) = 0.85
1 Nθ HT (xi cos θ + yi sin θ, θ). 1Nθ HT (xi cos θ + yi sin θ, θ)。 0.83
(2) (cid:88) (2) (cid:88) 0.82
θ Fig. 1: Overview of our model. θ フィギュア。 1:我々のモデルの概要。 0.70
We have an encoder, a decoder, and a fully connected layer inspired by the ERFNet [4, 5] with a trainable Hough-Transform (HT) and Inverse Hough-Transform (IHT) module [9], on top of which we build our HT -based semi-supervised loss maximizing the probability of the maximal bins in Hough space, where Llane, Lseg, and LHT are the optimized loss functions. トレーニング可能なHough-Transform (HT) と Inverse Hough-Transform (IHT) モジュール [9] を備えた ERFNet [4, 5] にインスパイアされたエンコーダ、デコーダ、および完全連結層を持ち、その上にLlane, Lseg, LHT が最適化された損失関数であるハフ空間における最大ビンの確率を最大化する HT ベースの半教師付き損失を構築する。 0.88
A self-driving car has no access to the test statistics, therefore we consider the inductive case. 自動運転車はテスト統計にアクセスできないため、帰納的ケースを考慮する。 0.64
3. SEMI-SUPERVISED LANE DETECTION 3. 半導体ランプ検出 0.57
Given an input image, our model outputs a lane probability and a semantic segmentation mask of lane pixels. 入力画像が与えられた場合、本モデルはレーン確率とレーン画素のセマンティックセグメンテーションマスクを出力する。 0.68
We use as a starting point the popular ERFNet [5]1. 人気のあるRFNet[5]1の出発点として使用しています。 0.67
The ERFNet contains a convolutional encoder for deep feature extraction, a convolutional decoder for lane predictions, and a fully connected layer for predicting the probability of a lane. erfnetは、深い特徴抽出のための畳み込みエンコーダと、レーン予測のための畳み込みデコーダと、レーンの確率を予測するための完全連結層とを含む。 0.73
We insert a trainable Hough Transform and Inverse Hough Transform (HT-IHT) block [9] between the encoder and decoder, and utilize the Hough representations of lanes for semi-supervised learning. エンコーダとデコーダの間に訓練可能なハフ変換と逆ハフ変換(ht-iht)ブロック[9]を挿入し、半教師付き学習にレーンのハフ表現を利用する。 0.61
Fig 1 depicts the overall structure of our model. 図1はモデル全体の構造を示しています。 0.81
3.1. Hough Transform line priors 3.1. ハフ変換線前駆体 0.73
We encode an input image to a semantic feature representations F which is mapped to the Hough space, through a trainable Hough Transform module [9]. 入力画像を、訓練可能なハフ変換モジュール[9]を介して、ハフ空間にマッピングされた意味的特徴表現fに符号化する。 0.76
The Hough transform HT maps a feature map F of size [H×W ] to an [Nρ×Nθ] Hough 1We rely on the implementation in [4]: https://github.com/ hough 変換 ht は、[h×w ] サイズの特徴写像 f を [nρ×nθ] hough 1 に写像する [4]: https://github.com/ の実装に依存する。 0.62
cardwing/Codes-for-L ane-Detection cardwing/codes-for-l ane検出 0.23
We concatenate the features F with the IHT features, followed by a convolutional layer merging these two branches. 特徴 f を iht の特徴と結合し、次にこれら2つの分岐を結合する畳み込み層を結合する。 0.69
We set H = 26, W = 122, Nρ = 125 and Nθ = 60. H = 26, W = 122, Nρ = 125, Nθ = 60 とする。 0.84
3.2. Hough Transform loss for unlabelled data 3.2. 乱れのないデータのハフ変換損失 0.73
A lane is composed of a set of line segments with a certain width, that share the same orientation. レーンは、一定の幅のラインセグメントのセットで構成されており、同じ方向を共有している。 0.70
For unlabelled images we rely on the observation that lanes correspond to local maxima in the Hough space. ラベルのない画像の場合、レーンはハフ空間の局所極大に対応するという観測に依存する。 0.52
Since the ERFNet [4, 5] predicts a single lane in each output channel, the mapping to Hough space recovers the lanes as global maxima in their respective channels. ERFNet[4, 5]は各出力チャネルの単一レーンを予測するので、ハフ空間への写像は各チャネルのグローバルな最大値としてレーンを回復する。 0.81
Having a large global maximum indicates that pixels along that line direction are well aligned, thus falling in the same bin. 大きな大域的最大値を持つことは、その線方向に沿った画素が整列していることを示し、したがって同じビンに落ちる。
訳抜け防止モード: 大域的な最大値を持つさま その線方向に沿った画素が整列していることから、同じビンに落ちる。
0.72
Based on this observation, we provide supervision to unlabelled inputs by maximizing the log-probability of the maximum bin (ˆρ, ˆθ) in Hough domain. この観察に基づいて,ハフ領域における最大ビン(ρ,θ)の対数確率を最大化することにより,ラベルなし入力の監督を行う。 0.71
To give the HT bins a probabilistic interpretation, we rescale the HT maps between [0, 1] for each angle direction independently by applying an L1 normalization over the offset dimension: HT ビンに確率論的解釈を与えるため、オフセット次元上の L1 正規化を適用することにより、各角度方向の [0, 1] 間の HT 写像を独立に再スケールする。 0.72
LHT = − log LHT = − log 0.85
, (3) (cid:32) , (3) (cid:32) 0.83
(cid:33) (cid:80)Nρ (cid:33) (cid:80)nρ 0.75
HT (ˆρ, ˆθ) k=0 HT (ρk, ˆθ) HT(シュρ, シュθ)k=0HT(ρk, シュθ) 0.75
where (ˆρ, ˆθ) is the positions of the global maximum in Hough space, calculated from the predicted segmentation masks. ここでは、予測されたセグメンテーションマスクから計算されたハフ空間における大域的な最大値の位置である。 0.70
3.3. Training with both labelled and unlabelled data 3.3. ラベル付きデータと非ラベル付きデータによるトレーニング 0.66
We train our model with both labelled and unlabelled data. ラベル付きデータとラベルなしデータの両方でモデルをトレーニングします。 0.58
As in [3, 4] the network predicts for each channel a mask used in a cross entropy loss Lseg over labelled data for predicting the semantic segmentation. ネットワークは[3, 4]のように、セマンティックセグメンテーションを予測するラベル付きデータに対して、クロスエントロピー損失Lsegで使用されるマスクを各チャネルに予測する。 0.78
Additionally, the network predicts lane probabilities p which are used in a binary cross entropy loss over labelled data Llane for optimizing for the existence of a lane. さらに、レーンの存在を最適化するためにラベル付きデータllane上の二項クロスエントロピー損失に使用されるレーン確率pを予測する。 0.67
We also optimize the proposed LHT , only また提案したLHTを最適化する。 0.74
英語(論文から抽出)日本語訳スコア
when the predicted probability p of a lane is larger than a threshold τ; otherwise, we skip the corresponding lane. レーンの予測確率pが閾値τより大きい場合、そうでなければ、対応するレーンをスキップします。 0.59
We set τ = 0.9. τ = 0.9 とする。 0.81
The total loss is the combination of the three losses: 合計損失は3つの損失の組み合わせである。 0.77
Ltotal = Lseg + αLlane + βLHT (p, τ ), Ltotal = Lseg + αLlane + βLHT (p, τ ) 0.88
(4) where α and β are used to balance different loss terms. (4) αとβは異なる損失項のバランスをとるために使われる。 0.81
4. EXPERIMENTAL ANALYSIS Datasets. 4. 実験解析 データセット。 0.72
We evaluate our models on the TuSimple dataset [11] and CULane dataset [10]. TuSimple データセット [11] と CULane データセット [10] でモデルを評価する。 0.77
All video clips in TuSimple dataset are taken on highways. TuSimpleデータセットのすべてのビデオクリップは、ハイウェイで撮影される。 0.61
There are 3,626 frames for training and 2,782 frames for testing. トレーニング用の3,626フレームとテスト用の2,782フレームがある。 0.66
The CULane dataset contains images from 9 different driving scenarios, such as lanes in shadow and at night with poor lighting conditions. CULaneデータセットには、陰の車線や夜間の照明条件の悪い夜間など、9つの異なる運転シナリオの画像が含まれている。 0.69
There are 88,880 images for training, 9,675 for validation, and 34,680 images for testing. トレーニング用88,880枚、検証用9,675枚、テスト用34,680枚がある。 0.50
We follow the official evaluation protocol to measure accuracy on the TuSimple, and use F1 measure on the CULane dataset. tusimpleの精度を測定するための公式評価プロトコルに従い、culaneデータセットでf1測度を使用する。 0.75
Baselines. We compare with the baseline ERFNet [5], and with the ERFNet-HT using the HT-IHT block [9]. ベースライン。 ベースラインのRFNet[5]と,HT-IHTブロックを用いたRFNet-HTとの比較を行った。 0.73
Both models are trained from scratch with labelled data only. どちらのモデルもラベル付きデータのみを使用してスクラッチからトレーニングされる。 0.56
For semi-supervised learning, we consider the ERFNet-pseudo pseudo-labeling baseline, and our proposed ERFNet-HTLHT . 半教師付き学習では、RFNet-pseudo擬似ラベルベースラインと提案したRFNet-HTLHTを考える。 0.57
The ERFNet-pseudo baseline first learns to predict lanes on annotated data only, and subsequently uses the predicted pseudo-labels to annotate unlabelled data, and then retrains the model on all data. ERFNet-pseudoベースラインはまず、注釈付きデータのみに基づいてレーンを予測することを学習し、その後、予測された擬似ラベルを使用して注釈付きデータをアノテートし、すべてのデータ上でモデルを再訓練する。 0.57
ERFNet-pseudo treats the prediction with a confidence score larger than 0.9 as ”ground truth” and optimize the Lseg with pseudo-labels. ERFNet-pseudo はこの予測を 0.9 以上の信頼スコアで処理し、Lseg を擬似ラベルで最適化する。 0.82
ERFNet-HT-LHT uses our proposed LHT loss. ERFNet-HT-LHTは提案したLHT損失を利用する。 0.52
ERFNet-HTpseudo+LHT combines both pseudo-labelling and our proposed LHT loss. ERFNet-HTpseudo+LHTは擬似ラベリングと提案したLHT損失を併用する。 0.58
Additionally, we also compare with s4GAN [32], a state-of-the-art semi-supervised learning model for semantic segmentation. さらに,セマンティックセグメンテーションのための最先端半教師付き学習モデルであるs4GAN[32]との比較を行った。 0.67
Implementation details. We follow the implementation and hyper-parameters in [4]. 実装の詳細。 我々は[4]の実装とハイパーパラメータに従う。 0.69
We use SGD [33] to train ERFNet and ERFNet-HT for 24 epochs. 我々は、SGD[33]を用いて、24時間でRFNetとRFNet-HTを訓練する。 0.61
ERFNet-pseudo, ERFNetHT-LHT and ERFNet-HT-pseudo+LHT are trained with extra unlabelled data for another 12 epochs. ERFNet-pseudo, ERFNet-HT-LHT, ERFNet-HT-pseudo+LHTは、さらに12のエポックに対して、余分な遅延のないデータで訓練される。 0.44
The initial learning rate is 1 × 10−2, and is decreased by a factor of (1 − t/T )0.9, where t is the current training epoch and T is the total number of epochs, as in [4]. 最初の学習速度は 1 × 10−2 であり、(1 − t/T )0.9 の係数で減少する。
訳抜け防止モード: 最初の学習速度は 1 × 10−2 であり、 (1 − t / T ) 0.9 の係数で減少する。 ここで t は現在のトレーニングのエポックであり、T は[4 ] のようにエポックの総数です。
0.75
The batch size is set to be 16. バッチサイズは16と設定されている。 0.82
For our Ltotal, we set the weights α = 0.1 and β = 0.01 to ensure that all loss terms have similar magnitudes. 我々のltotalに対して、重み α = 0.1 と β = 0.01 を設定し、すべての損失項が同様の等級を持つことを保証する。 0.66
Following [4], we multiply the Lseg for the background class by 0.4 to counter the large number of background pixels. 4]に従うと、バックグラウンドクラスのLsegを0.4に乗じて、多数の背景ピクセルに対抗します。 0.68
For s4GAN [32], we directly use the official implementation 2. s4GAN [32] については、公式実装 2 を直接使用します。 0.63
Results analysis. To evaluate the effectiveness of our LHT in utilizing unlabelled data, we randomly split the CULane 結果分析。 ラベルのないデータを利用したLHTの有効性を評価するため、CULaneをランダムに分割した。
訳抜け防止モード: 結果分析。 ラベルのないデータを利用したLHTの有効性を評価する。 ランダムにCULaneを分割する
0.67
2https://github.com/ sud0301/semisup-sems eg 3For cross-road, we show only the number of false-positives, as in [10]. 2https://github.com/ sud0301/semisup-sems eg 3 クロスロードでは、[10]のように偽陽性の数だけを表示する。 0.55
Table 1: Performance on TuSimple and CULane datasets with various amounts of labelled and unlabelled data. 表1: ラベル付きおよび非ラベル付きデータを多用したTuSimpleおよびCULaneデータセットのパフォーマンス。 0.80
The first column indicates the proportion of labelled data for training. 第1列はトレーニング用ラベル付きデータの比率を示す。 0.78
The remaining data is treated as unlabelled for semi-supervised learning. 残りのデータは半教師付き学習用として扱われる。 0.61
ERFNet-HT-LHT and ERFNetHT-pseudo+LHT show performance improvements on both datasets. ERFNet-HT-LHT と ERFNetHT-pseudo+LHT は両データセットの性能改善を示す。 0.54
When the number of labelled samples decreases, the advantage of ERFNet-HT-LHT is more pronounced. ラベル付きサンプルの数が減少すると、RFNet-HT-LHTの利点はより顕著になる。 0.63
Labels s4GAN [32] ラベルs4GAN[32] 0.78
ERFNet models Baseline ERFNetモデル ベースライン 0.76
[5] HT [9] pseudo [5] HT[9] 偽 0.72
HTLHT HTpseudo + LHT HTLHT HTpseudo + LHT 0.85
Accuracy (%) on the TuSimple dataset TuSimpleデータセットの精度(%) 0.78
100% 50% 88.82 10% 86.25 100% 50% 88.82 10% 86.25 0.81
- 100% 50% 10% 5% 1% - 100% 50% 10% 5% 1% 0.85
- 93.71 93.47 77.71 - 93.71 93.47 77.71 0.66
93.37 92.12 93.37 92.12 0.50
93.71 92.97 93.63 82.97 92.98 F1 scores on the CULane dataset 69.86 69.39 60.99 56.61 32.99 93.71 92.97 93.63 82.97 92.98 F1 scores on the CULane dataset 69.86 69.39 60.99 56.61 32.99 0.53
70.52 68.59 61.46 57.78 32.48 70.52 68.59 61.46 57.78 32.48 0.44
70.75 64.04 62.32 55.10 70.75 64.04 62.32 55.10 0.45
69.68 65.56 61.99 51.38 69.68 65.56 61.99 51.38 0.45
- - - - - 93.70 93.05 - - - - - 93.70 93.05 0.79
- 70.41 66.10 63.67 52.80 - 70.41 66.10 63.67 52.80 0.65
training data into {100/0, 50/50, 10/90, 5/95, 1/99} sets, where the first digit indicates the proportion of labelled data, while the second one is the proportion of unlabelled data. トレーニングデータを{100/0, 50/50, 10/90, 5/95, 1/99} セットに分類する。
訳抜け防止モード: 100/0, 50/50, 10/90, 5/95, 1/99 } のセット。 最初の数字はラベル付きデータの比率を表します 2つ目は 不正なデータの比率です
0.80
The TuSimple dataset is split into {100/0, 50/50, 10/90} sets, as it contains only 3,626 images. TuSimpleデータセットは、わずか3,626の画像を含むため、{100/0, 50/50, 10/90}セットに分割される。 0.70
We use the same splits for all models. すべてのモデルで同じ分割を使用します。 0.77
We report accuracy on TuSimple and F1-measure on the CULane dataset. CULaneデータセット上でTuSimpleとF1測定の精度を報告する。 0.73
Table 1 compares all models on various training sets. 表1は、様々なトレーニングセットですべてのモデルを比較します。 0.63
ERFNet-HT-pseudo+LHT achieves the best performance on both 50% and 10% subsets of TuSimple dataset. ERFNet-HT-pseudo+LHTはTuSimpleデータセットの50%と10%のサブセットで最高のパフォーマンスを達成する。 0.68
The improvement over the supervised baseline is more than 15% on the 10% subset. 教師付きベースラインに対する改善は、10%のサブセットで15%以上である。 0.72
All semi-supervised ERFNet models improve accuracy, indicating the potential of exploiting massive unlabelled data. すべての半教師付きRFNetモデルでは精度が向上し、大量の未ラベルデータを利用する可能性を示している。 0.51
Pseudo-labeling allows learning from high confidence predictions explicitly, while LHT optimizes line feature representations in Hough space in an implicit way. Pseudo-labelingは高い信頼度予測から学習を可能にするが、LHTはハフ空間におけるライン特徴表現を暗黙的に最適化する。 0.65
However, s4GAN [32] shows inferior performance to other models, due to the fact that s4GAN is not specifically optimized for lane detection, where image content differs substantially from its origin usage. しかし, s4GAN [32] は他のモデルに比べて性能が劣っているのは, s4GAN が特にレーン検出に最適化されていないためである。 0.77
In general, semisupervised models perform similar on the TuSimple dataset as it only includes the highway scenario. 一般に、半教師付きモデルは、ハイウェイシナリオのみを含むTuSimpleデータセットで同様の動作を行う。 0.71
On the CULane dataset, ERFNet-HT-pseudo+LHT consistently outperforms ERFNet-pseudo, validating the usefulness of the Hough priors (LHT ) in exploiting lane representations in the semisupervised setting. CULane データセットでは ERFNet-HT-pseudo+LHT が一貫して ERFNet-pseudo を上回り、半教師付き環境におけるレーン表現の活用における Hough priors (LHT ) の有用性を検証する。 0.62
The s4GAN is lacking since we are unable to produce reliable prediction on this dataset. s4GANは、このデータセットで信頼できる予測を生成できないため、欠落しています。
訳抜け防止モード: s4ganは このデータセットで信頼できる予測を行うことはできません。
0.71
We observe that ERFNet-HT-LHT improves over all other ERFNet-HT-LHT は他のすべてよりも改善されていることを観察する。 0.41
英語(論文から抽出)日本語訳スコア
Fig. 2: Visualizations of predicted lanes on the CULane dataset. フィギュア。 2: CULaneデータセット上の予測レーンの可視化。 0.60
Only 10% annotated data is used for training. トレーニングには10%の注釈付きデータしか使われていない。 0.59
ERFNetHT-pseudo+LHT performs better on challenging samples and better localizes lane boundaries. ERFNetHT-pseudo+LHTは、挑戦的なサンプルに対してより良い性能を示し、レーン境界のローカライズを向上する。 0.42
The inference speed of the ERFNet-HT is around 13 frames per second on a NVIDIA GTX1080Ti GPU. ERFNet-HTの推論速度はNVIDIA GTX1080Ti GPU上で毎秒13フレームである。 0.83
Table 2: F1 scores for different scenarios, with 1% labelled data. 表2: F1は異なるシナリオのスコアであり、1%がラベル付きデータである。 0.68
ERFNet-HT-LHT outperforms other models in most scenarios, indicating that the LHT loss exploits useful geometric knowledge of lanes when adding unlabelled samples. ERFNet-HT-LHTは、ほとんどのシナリオで他のモデルよりも優れており、LHTの損失は、未ラベルのサンプルを追加する際にレーンの有用な幾何学的知識を利用することを示している。 0.39
ERFNet models Baseline ERFNetモデルベースライン 0.78
Normal Crowded Night No line Shadow Arrow Dazzle Curve Cross 3 Avg F1 通常の混雑夜no line shadow arrow dazzle curve cross 3 avg f1 0.78
[5] 49.24 31.74 22.36 18.78 24.71 39.39 26.25 33.62 6949 33.00 [5] 49.24 31.74 22.36 18.78 24.71 39.39 26.25 33.62 6949 33.00 0.51
HT [9] 51.25 31.49 21.67 17.54 17.69 38.22 23.76 34.53 8711 32.48 HT [9] 51.25 31.49 21.67 17.54 17.69 38.22 23.76 34.53 8711 32.48 0.53
pseudo HTLHT pseudo HTLHT 0.85
69.72 49.53 45.27 28.05 36.63 57.28 40.29 46.56 3355 51.38 69.72 49.53 45.27 28.05 36.63 57.28 40.29 46.56 3355 51.38 0.45
75.06 52.52 50.77 32.02 38.50 63.33 40.28 50.52 5292 55.10 75.06 52.52 50.77 32.02 38.50 63.33 40.28 50.52 5292 55.10 0.45
HTpseudo +LHT 71.83 50.97 45.42 30.12 35.97 59.18 39.42 46.42 3676 52.80 HTpseudo +LHT 71.83 50.97 45.42 30.12 35.97 59.18 39.42 46.42 3676 52.80 0.48
The superiority of ERFNet-HT-LHT demonstrates the capability of LHT to exploit geometric lanes information from unlabelled data. ERFNet-HT-LHTの優位性は、LHTが未ラベルデータから幾何レーン情報を利用する能力を示している。
訳抜け防止モード: ERFNet-HT-LHTの優位性はLHTの能力を示す 乱れのないデータから 幾何学的レーン情報を利用する
0.66
We also notice that the ”No line”, ”Shadow” and ”Dazzle” scenarios are more challenging for all methods, compared with the other scenarios. また、"no line"、"shadow"、"dazzle"のシナリオは、他のシナリオと比較して、すべてのメソッドにとってより難しいことにも気付きました。 0.72
We visualize line predictions from different models in Fig. 図で異なるモデルからのライン予測を可視化する。 0.74
2. Our ERFNet-HT-pseudo+LHT better localizes lanes, especially when a lane extends away from the image boundary, as in the first two examples. 2. ERFNet-HT-pseudo+LHTは、特に最初の2つの例のように、車線が画像境界から遠ざかっている場合、車線をよりよくローカライズする。 0.71
As shown in the second example, due to occlusion, ERFNet and ERFNet-HT miss the two middle lanes, while ERFNet-HT-LHT only predicts one. 第2の例で示すように、ERFNetとERFNet-HTは2つの中間線を見逃し、ERFNet-HT-LHTは1つしか予測しない。 0.55
In the third example there is an annotation inconsistency, where the opposite lane at the image border is not annotated. 3つ目の例では、画像境界の反対の車線に注釈を付けないアノテーションの不整合がある。 0.75
Overall, ERFNet-HT-pseudo+LHT produces sharper and more precise predictions, in both simple and challenging scenarios. 全体として、ERFNet-HT-pseudo+LHTは、単純なシナリオと難しいシナリオの両方において、よりシャープで正確な予測を生成する。 0.41
models on the 1% subset by a large margin. 1%のサブセットのモデルは大きなマージンで動作します。 0.72
On the 1% subset, there is not sufficient labelled data (less than 1K training images), and therefore the ”ground truth” produced by pseudo-labelling in ERFNet-pseudo is noisy and imperfect. 1%のサブセットでは、ラベル付きデータ(トレーニング画像が1K未満)が不足しているため、RFNet-pseudoの擬似ラベリングによって生成される“地下真実”はノイズが多く不完全である。 0.69
In this case, learning from pseudo-labelled data explicitly can be harmful, while the LHT avoids this problem by exploiting useful prior geometric knowledge about lines, in Hough space. この場合、擬似ラベル付きデータからの学習は有害であり、一方LHTは、ハフ空間におけるラインに関する有用な幾何学的知識を活用することでこの問題を回避することができる。 0.61
In comparison, on the 50% subset, the differences among all models are marginal, when ample training data is available. 比較すると、50%のサブセットでは、十分なトレーニングデータが利用できる場合、すべてのモデルの違いは限界である。 0.74
The experiment demonstrates the potential of our LHT loss for data-efficient learning in Hough space in a semisupervised setting. この実験は、半教師付き環境でのハフ空間におけるデータ効率学習におけるLHT損失の可能性を示す。 0.67
We compare the performance of all ERFNet models in various driving scenarios in Table 2. 表2における各種駆動シナリオにおける全てのERFNetモデルの性能を比較した。 0.72
ERFNet-HT-LHT shows considerable improvement over other models in most scenarios in Table 2, and the advantage accentuates (up to 5%), where the amount of labelled data is decreased to 1% only. ERFNet-HT-LHTは表2のほとんどのシナリオで他のモデルよりも大幅に改善され、利点は5%までアクセントされ、ラベル付きデータの量は1%に減少する。 0.74
5. LIMITATIONS AND CONCLUSIONS 5. リミメーションとコンキュレーション 0.71
We propose semi-supervised lane detection by exploiting global line priors in Hough space through the use of an additional loss. そこで本研究では,ハフ空間におけるグローバル・ライン・プライオリティを付加的損失を用いて活用し,半教師付きレーン検出を提案する。 0.50
We can incorporate unlabelled data during training thus overcoming the need for expensive and error-prone annotations. トレーニング中にラベルのないデータを組み込むことで、高価でエラーやすいアノテーションの必要性を克服できます。 0.57
Currently our method assumes a single lane in each channel, and therefore we can optimize for the global maximum in Hough space. 現在,本手法では各チャネルに1車線を仮定し,ハフ空間における大域的最大値の最適化を行う。 0.66
This assumption may not always hold and an extension to multiple local maxima is future research. この仮定が常に成り立つとは限らないし、複数の局所極大への拡張は将来の研究である。
訳抜け防止モード: この仮定は必ずしも そして、複数のローカルな最大値への拡張は、将来の研究である。
0.63
However, our proposed Hough loss adds valuable prior geometric knowledge about lanes when annotations are too scarce even for pseudo-labelling based methods. しかし,提案するハフ損失は,擬似ラベルベース手法においてもアノテーションが不足している場合に,レーンに関する事前の幾何学的知識を付加する。 0.60
We experimentally demonstrate the added value of our proposed loss on TuSimple and CULane datasets for limited annotated data. 限られたアノテートデータに対するTuSimpleおよびCULaneデータセットに,提案した損失の付加価値を実験的に示す。 0.76
英語(論文から抽出)日本語訳スコア
6. REFERENCES [1] Bei He, Rui Ai, Yang Yan, and Xianpeng Lang, “Accurate and robust lane detection based on dual-view convolutional neutral network,” in Intelligent Vehicles Symposium, 2016, pp. 6. 参考 [1]Bei He, Rui Ai, Yang Yan, and Xianpeng Lang, “Accurate and robust lane detection based on dual-view convolutional neutral network” in Intelligent Vehicles Symposium, 2016 pp. 0.72
1041– 1046. 1041– 1046. 0.94
[2] Jochen Pohl, Wolfgang Birk, and Lena Westervall, “A driverdistraction-ba sed lane-keeping assistance system,” Journal of Systems and Control Engineering, vol. Journal of Systems and Control Engineering, vol. ^ Jochen Pohl, Wolfgang Birk, and Lena Westervall, “A driverdistraction-ba sed lane-keeper aid system”。 0.82
221, no. 4, pp. 221, No. 4, pp。 0.81
541–552, 2007. 541–552, 2007. 0.84
[3] Yuenan Hou, Zheng Ma, Chunxiao Liu, and Chen Change Loy, “Learning lightweight lane detection cnns by self attention distillation,” in ICCV, 2019, pp. ICCV, 2019, pp。[3]Yuenan Hou, Zheng Ma, Chunxiao Liu, Chen Change Loy, “Learning light lane detection cnns by self attention distillation” in ICCV, 2019。 0.75
1013–1021. 1013–1021. 0.71
[4] Yuenan Hou, Zheng Ma, Chunxiao Liu, Tak-Wai Hui, and Chen Change Loy, “Inter-region affinity distillation for road marking segmentation,” in CVPR, 2020, pp. [4]Yuenan Hou,Zheng Ma,Chenxiao Liu,Tak-Wai Hui,Chen Change Loy, “Inter- Regional Affinity distillation for roadmarking segmentation” in CVPR, 2020, pp. 0.79
12486–12495. 12486–12495. 0.71
[5] Eduardo Romera, Jos´e M Alvarez, Luis M Bergasa, and Roberto Arroyo, “Erfnet: Efficient residual factorized convnet for real-time semantic segmentation,” Transactions on Intelligent Transportation Systems, vol. 5] Eduardo Romera, Jos ́e M Alvarez, Luis M Bergasa, Roberto Arroyo, “Erfnet: Effnet: Efficient residual factorized convnet for real-time semantic segmentation”, Transactions on Intelligent Transportation Systems, vol。 0.84
19, no. 1, pp. 19号室だ 1、p。 0.55
263–272, 2017. 263–272, 2017. 0.84
[6] Zequn Qin, Huanyu Wang, and Xi Li, “Ultra fast structureaware deep lane detection,” in The European Conference on Computer Vision (ECCV), 2020. 2020年のECCV(European Conference on Computer Vision)で、Zequn Qin, Huanyu Wang, and Xi Li, “Ultra fast structureaware deep lane detection” と題された講演を行った。 0.78
[7] Miriam Huijser and Jan C van Gemert, [7]Miriam HuijserとJan C van Gemert 0.66
“Active decision boundary annotation with deep generative models,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. IEEEのコンピュータビジョン国際会議Proceedings on Computer Vision, 2017 で,“深い生成モデルによる意思決定境界アノテーションを動作させる”。 0.79
5286–5295. 5286–5295. 0.71
[8] Richard O Duda and Peter E Hart, “Use of the hough transformation to detect lines and curves in pictures,” Communications of the ACM, vol. 8] richard o dudaとpeter e hartの両氏は,“写真中の線や曲線を検出するためのhough変換の利用”について説明している。 0.58
15, no. 1, pp. 11–15, 1972. 15だ 1、p。 11–15, 1972. 0.62
[9] Yancong Lin, Silvia L Pintea, and Jan C van Gemert, “Deep 9]Yancong Lin,Silvia L Pintea,Jan C van Gemert, “Deep” 0.67
hough-transform line priors,” EECV, 2020. とEECVは2020年に発表した。 0.42
[10] Xingang Pan, Jianping Shi, Ping Luo, Xiaogang Wang, and Xiaoou Tang, “Spatial as deep: Spatial cnn for traffic scene understanding,” CoRR, 2017. [10]Xingang Pan,Jianping Shi,Ping Luo,Xiaogang Wang,Xiaoo Tang, “Spatial as Deep: Space cnn for traffic scene understanding”, CoRR, 2017 0.70
[11] “Tusimple lane detection challenge,” https://github. [11] “Tusimple lane detection Challenge”, https://github.com。 0.90
com/TuSimple/tusimpl e-benchmark. com/TuSimple/tusimpl e-benchmark.com 0.33
[12] ZuWhan Kim, “Robust lane detection and tracking in challenging scenarios,” Transactions on Intelligent Transportation Systems, vol. ZuWhan Kim, “Robust lane detection and tracking in challenge scenarios”, Transactions on Intelligent Transportation Systems, vol. 0.67
9, no. 1, pp. 16–26, 2008. 9番だ 1、p。 16–26, 2008. 0.64
[13] Hendrik Deusch, J¨urgen Wiest, Stephan Reuter, Magdalena Szczot, Marcus Konrad, and Klaus Dietmayer, “A random finite set approach to multiple lane detection,” in International Conference on Intelligent Transportation Systems, 2012, pp. 13] hendrik deusch, j surgen wiest, stephan reuter, magdalena szczot, marcus konrad, and klaus dietmayer, “a random finite set approach to multiple lane detection” in international conference on intelligent transportation systems, pp. ^ “a random finite set approach to multiple lane detection” 0.78
270–275. [14] Hunjae Yoo, Ukil Yang, and Kwanghoon Sohn, “Gradientenhancing conversion for illumination-robust lane detection,” Transactions on Intelligent Transportation Systems, vol. 270–275. [14]Hunjae Yoo,Ukil Yang,Kwanghoon Sohn, “Gradientenhancing conversion for illumination-robust lane detection”, Transactions on Intelligent Transportation Systems, vol. 0.75
14, no. 3, pp. 1083–1094, 2013. 14だ 3、p。 1083–1094, 2013. 0.61
[15] Tao Wu and Ananth Ranganathan, 15] タオ・ウーと アナス・ランガナサン 0.55
“A practical system for road marking detection and recognition,” in Intelligent Vehicles Symposium, 2012, pp. a practical system for road mark detection and recognition” in intelligent vehicles symposium, 2012 pp. 2012年4月1日閲覧。 0.84
25–30. [16] Byambaa Dorj and Deok Jin Lee, “A precise lane detection algorithm based on top view image transformation and leastsquare approaches,” Journal of Sensors, vol. 25–30. Journal of Sensors, vol.[16] Byambaa DorjとDeok Jin Leeは、“トップビューの画像変換と最小二乗アプローチに基づく正確な車線検出アルゴリズム”だ。 0.75
2016, 2016. 2016, 2016. 0.85
[17] Kamarul Ghazali, Rui Xiao, and Jie Ma, “Road lane detection using h-maxima and improved hough transform,” in International Conference on Computational Intelligence, Modelling and Simulation, 2012, pp. [17] Kamarul Ghazali, Rui Xiao, Jie Ma, “Road lane detection using h-maxima and improve hough transform” in International Conference on Computational Intelligence, Modelling and Simulation, 2012 pp。 0.78
205–208. [18] Yue Wang, Dinggang Shen, and Eam Khwang Teoh, “Lane detection using spline model,” Pattern Recognition Letters, vol. 205–208. [18]Yue Wang,Dinggang Shen,Eam Khwang Teoh, “Lane Detection using Spline model”, Pattern Recognition Letters, vol。 0.70
21, no. 8, pp. 21だ 8, pp。 0.60
677–689, 2000. 677–689, 2000. 0.84
[19] Bin Yu and Anil K Jain, “Lane boundary detection using a multiresolution hough transform,” in ICIP, 1997, vol. [19] Bin Yu and Anil K Jain, “Lane boundary detection using a multi resolution hough transform” in ICIP, 1997。 0.75
2, pp. 748–751. 2、p。 748–751. 0.67
[20] Seokju Lee, Junsik Kim, Jae Shin Yoon, Seunghak Shin, Oleksandr Bailo, Namil Kim, Tae-Hee Lee, Hyun Seok Hong, Seung-Hoon Han, and In So Kweon, “Vpgnet: Vanishing point guided network for lane and road marking detection and recognition,” in ICCV, 2017, pp. [20]Seokju Lee, Junsik Kim, Jae Shin Yoon, Seunghak Shin, Oleksandr Bailo, Namil Kim, Tae-Hee Lee, Hyun Seok Hong, Seung-Hoon Han, In So Kweon, “Vpgnet: Vanishing point guided network for lane and road marking detection and recognition”, ICCV, 2017, pp. pp. 0.89
1947–1955. 1947–1955. 0.71
[21] Jun Li, Xue Mei, Danil Prokhorov, and Dacheng Tao, “Deep neural network for structural prediction and lane detection in traffic scene,” Transactions on neural networks and learning systems, vol. Jun Li, Xue Mei, Danil Prokhorov, Dacheng Tao, “Deep Neural Network for structure prediction and lane detection in traffic scene”, Transactions on Neural Network and Learning system, vol. ] ニューラルネットワークと学習システムに関するトランザクション。 0.79
28, no. 3, pp. 690–703, 2016. 28歳。 3、p。 690–703, 2016. 0.65
[22] Davy Neven, Bert De Brabandere, Stamatios Georgoulis, Marc Proesmans, and Luc Van Gool, “Towards end-to-end lane detection: an instance segmentation approach,” in Intelligent vehicles symposium, 2018, pp. Davy Neven, Bert De Brabandere, Stamatios Georgoulis, Marc Proesmans, and Luc Van Gool, “towards end-to-end lane detection: an instance segmentation approach” in Intelligent vehicle symposium, 2018, pp. 0.80
286–291. [23] Jigang Tang, Songbin Li, and Peng Liu, “A review of lane detection methods based on deep learning,” Pattern Recognition, p. 107623, 2020. 286–291. [23]jigang tang, songbin li, peng liu, “a review of lane detection methods based on deep learning”, pattern recognition, p. 107623, 2020。 0.72
[24] Jie Zhang, Yi Xu, Bingbing Ni, and Zhenyu Duan, “Geometric constrained joint lane segmentation and lane boundary detection,” in ECCV, 2018, pp. [24]Jie Zhang,Yi Xu,Bingbing Ni,Zhenyu Duan, “Geometric constrained joint lane segmentation and lane boundary detection” in ECCV, 2018, pp。 0.75
486–502. [25] Jesper E Van Engelen and Holger H Hoos, “A survey on semisupervised learning,” Machine Learning, vol. 486–502. [25] Jesper E Van EngelenとHolger H Hoos, “A survey on semisupervised learning”, Machine Learning, vol。 0.73
109, no. 2, pp. 109 だめだ 2、p。 0.57
373–440, 2020. 373–440, 2020. 0.84
[26] Avrim Blum, John Lafferty, Mugizi Robert Rwebangira, and Rajashekar Reddy, “Semi-supervised learning using randomized mincuts,” in ICML, 2004, p. 13. Avrim Blum, John Lafferty, Mugizi Robert Rwebangira, Rajashekar Reddy, “Semi-supervised learning using randomized mincuts” in ICML, 2004, pp. 13。 0.72
[27] Ting Chen, Simon Kornblith, Mohammad Norouzi, and Geoffrey Hinton, “A simple framework for contrastive learning of visual representations,” ICML, 2020. Ting Chen, Simon Kornblith, Mohammad Norouzi, Geoffrey Hinton, “A simple framework for contrastive learning of visual representations”, ICML, 2020。
訳抜け防止モード: [27]Ting Chen,Simon Kornblith,Mohammad Norouzi, そしてGeoffrey Hinton氏は、“視覚表現の対照的な学習のためのシンプルなフレームワーク”だ。 ICML、2020年。
0.78
[28] Durk P Kingma, Shakir Mohamed, Danilo Jimenez Rezende, and Max Welling, “Semi-supervised learning with deep generative models,” NeurIPS, vol. [28]Durk P Kingma, Shakir Mohamed, Danilo Jimenez Rezende, Max Welling, “Semi-supervised learning with Deep Generative Model”, NeurIPS, vol。 0.75
27, pp. 3581–3589, 2014. pp. 27。 3581–3589, 2014. 0.81
[29] Avrim Blum and Shuchi Chawla, “Learning from labeled and [29]Avrim Blum and Shuchi Chawla, “Learning from labeled and and 0.87
unlabeled data using graph mincuts,” ICML, 2001. とICML, 2001。 0.20
[30] Tony Jebara, Jun Wang, and Shih-Fu Chang, “Graph construction and b-matching for semi-supervised learning,” in ICML, 2009, pp. [30] Tony Jebara, Jun Wang, and Shih-Fu Chang, “Graph construction and b-matching for semi-supervised learning” in ICML, 2009。 0.89
441–448. [31] Xiaojin Zhu, Zoubin Ghahramani, and John D Lafferty, “Semisupervised learning using gaussian fields and harmonic functions,” in ICML, 2003, pp. 441–448. [31]Xiaojin Zhu, Zoubin Ghahramani, John D Lafferty, “Semisupervised learning using Gaussian field and harmonic function” in ICML, 2003, pp。 0.72
912–919. [32] Sudhanshu Mittal, Maxim Tatarchenko, and Thomas Brox, “Semi-supervised semantic segmentation with high-and lowlevel consistency,” IEEE transactions on pattern analysis and machine intelligence, 2019. 912–919. 32] sudhanshu mittal, maxim tatarchenko, thomas brox, “semi-supervised semantic segmentation with high-level consistency” ieee transactions on pattern analysis and machine intelligence, 2019(英語) 0.74
[33] L´eon Bottou, “Large-scale machine learning with stochastic gradient descent,” in Proceedings of COMPSTAT’2010, pp. [33]L eon Bottou, “Large-scale machine learning with stochastic gradient descent” in Proceedings of COMPSTAT'2010, pp。 0.88
177–186. 2010. 177–186. 2010. 0.78
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。