論文の概要、ライセンス

# (参考訳) 部分閉塞が歩行者検出性に及ぼす影響 [全文訳有]

The Impact of Partial Occlusion on Pedestrian Detectability ( http://arxiv.org/abs/2205.04812v3 )

ライセンス: CC BY 4.0
Shane Gilroy, Darragh Mullins, Edward Jones, Ashkan Parsi and Martin Glavin(参考訳) 脆弱な道路利用者のロバスト検出は、自動運転車を異種交通に配備するための安全上重要な要件である。 最も複雑な課題の1つは、対象の物体が、他の前景の物体の障害物によって、センサーに部分的にしか利用できない部分閉塞である。 多くの主要な歩行者検出ベンチマークは部分閉塞に対するアノテーションを提供しているが、それぞれのベンチマークは閉塞の発生と重症度の定義で大きく異なる。 近年の研究では、これらの症例では高い主観性が咬合レベルを分類するために用いられており、咬合は部分的および重閉塞などの2~3つの広いカテゴリに分類される。 これにより、どのベンチマークが使われているかによって、歩行者検出モデルのパフォーマンスが不正確または矛盾していることを報告できる。 本研究は, 歩行者検出モデルの客観的評価を容易にするため, 部分閉塞歩行者検出のための新しい客観的ベンチマークを提案する。 7つの歩行者検出モデルを用いて,0~99%の閉塞レベルについて評価を行った。 その結果, 歩行者検出性能は低下し, 歩行者咬合レベルが上昇するにつれて偽陰性検出数が増加することがわかった。 人気の高い歩行者検出ルーチン7つのうち、CenterNetは、SSDliteに続いて、全体的なパフォーマンスが最も高い。 RetinaNetの全体的な検出性能は、オクルージョンレベルの範囲で最低である。

Robust detection of vulnerable road users is a safety critical requirement for the deployment of autonomous vehicles in heterogeneous traffic. One of the most complex outstanding challenges is that of partial occlusion where a target object is only partially available to the sensor due to obstruction by another foreground object. A number of leading pedestrian detection benchmarks provide annotation for partial occlusion, however each benchmark varies greatly in their definition of the occurrence and severity of occlusion. Recent research demonstrates that a high degree of subjectivity is used to classify occlusion level in these cases and occlusion is typically categorized into 2 to 3 broad categories such as partially and heavily occluded. This can lead to inaccurate or inconsistent reporting of pedestrian detection model performance depending on which benchmark is used. This research introduces a novel, objective benchmark for partially occluded pedestrian detection to facilitate the objective characterization of pedestrian detection models. Characterization is carried out on seven popular pedestrian detection models for a range of occlusion levels from 0-99%. Results demonstrate that pedestrian detection performance degrades, and the number of false negative detections increase as pedestrian occlusion level increases. Of the seven popular pedestrian detection routines characterized, CenterNet has the greatest overall performance, followed by SSDlite. RetinaNet has the lowest overall detection performance across the range of occlusion levels.
公開日: Thu, 12 May 2022 08:02:51 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
The Impact of Partial Occlusion on Pedestrian 部分閉塞が歩行者に与える影響 0.72
Detectability 1 Shane Gilroy1,2, Darragh Mullins1, Edward Jones1, Ashkan Parsi1 and Martin Glavin1 検出性 1 Shane Gilroy1,2, Darragh Mullins1, Edward Jones1, Ashkan Parsi1, Martin Glavin1 0.49
1National University of Ireland, Galway, Ireland アイルランドのゴールウェイにあるアイルランド国立大学 0.74
2Atlantic Technological University, Ireland 2 アイルランドの大西洋技術大学 0.79
Abstract—Robust detection of vulnerable road users is a safety critical requirement for the deployment of autonomous vehicles in heterogeneous traffic. 抽象 — 脆弱な道路利用者のロバスト検出は、異種交通に自動運転車を配備する上で、安全上の重要な要件である。 0.56
One of the most complex outstanding challenges is that of partial occlusion where a target object is only partially available to the sensor due to obstruction by another foreground object. 最も複雑な課題の1つは、対象の物体が、他の前景の物体の障害物によって、センサーに部分的にしか利用できない部分閉塞である。
訳抜け防止モード: 最も複雑な課題の1つは部分閉塞です ターゲットオブジェクトは、別のフォアグラウンドオブジェクトによる障害のため、センサーに部分的にのみ利用可能である。
0.82
A number of leading pedestrian detection benchmarks provide annotation for partial occlusion, however each benchmark varies greatly in their definition of the occurrence and severity of occlusion. 多くの主要な歩行者検出ベンチマークは部分閉塞に対するアノテーションを提供しているが、それぞれのベンチマークは閉塞の発生と重症度の定義で大きく異なる。 0.59
Recent research demonstrates that a high degree of subjectivity is used to classify occlusion level in these cases and occlusion is typically categorized into 2-3 broad categories such as “partially” and “heavily” occluded. 近年の研究では, 高い主観性が咬合レベルを分類するために用いられ, 通常は「部分的」や「重度」といった2~3の広いカテゴリーに分類されている。 0.75
This can lead to inaccurate or inconsistent reporting of pedestrian detection model performance depending on which benchmark is used. これにより、どのベンチマークが使われているかによって、歩行者検出モデルのパフォーマンスが不正確または矛盾していることを報告できる。 0.44
This research introduces a novel, objective benchmark for partially occluded pedestrian detection to facilitate the objective characterization of pedestrian detection models. 本研究は, 歩行者検出モデルの客観的評価を容易にするため, 部分閉塞歩行者検出のための新しい客観的ベンチマークを提案する。 0.62
Characterization is carried out on seven popular pedestrian detection models for a range of occlusion levels from 0-99%. 7つの歩行者検出モデルを用いて,0~99%の閉塞レベルについて評価を行った。 0.62
Results demonstrate that pedestrian detection performance degrades, and the number of false negative detections increase as pedestrian occlusion level increases. その結果, 歩行者検出性能は低下し, 歩行者咬合レベルが上昇するにつれて偽陰性検出数が増加することがわかった。 0.62
Of the seven popular pedestrian detection routines characterized, CenterNet has the greatest overall performance, followed by SSDlite. 人気の高い歩行者検出ルーチン7つのうち、CenterNetは、SSDliteに続いて、全体的なパフォーマンスが最も高い。 0.63
RetinaNet has the lowest overall detection performance across the range of occlusion levels. RetinaNetの全体的な検出性能は、オクルージョンレベルの範囲で最低である。 0.74
Index Terms—Pedestrian Detection, Partially Occluded, Index Terms - Pedestrian Detection, partially Occluded 0.43
Benchmark, Occlusion Level, Autonomous Vehicles, Dataset. ベンチマーク、オクルージョンレベル、自動運転車、データセット。 0.57
I. INTRODUCTION I. イントロダクション 0.64
A CCURATE and robust pedestrian detection systems are CCURATEとロバストな歩行者検知システム 0.68
an essential requirement for the safe navigation of autonomous vehicles in heterogeneous traffic. 異種交通における自律走行車の安全航行のための必須要件 0.69
The SAE J3016 standard [1] defines levels of driving automation ranging from Level 0, where the vehicle contains zero automation and the human driver is in complete control, to level 5 where the vehicle is solely responsible for all perception and driving tasks in all scenarios. SAE J3016標準[1]は、車両が自動化をゼロとし、人間の運転者が完全に制御できるレベル0から、車両が全てのシナリオにおけるすべての認識と運転タスクにのみ責任を持つレベル5まで、運転自動化のレベルを定義している。 0.76
The progression from automation levels 3-5 requires a significant increase in assumption of responsibility by the vehicle, placing progressively increasing demands on the performance of pedestrian detection systems to inform efficient path planning and to ensure the safety of vulnerable road users. 自動化レベル3~5からの進歩は、車両の責任の仮定を大幅に増加させ、効率的な経路計画と脆弱な道路利用者の安全を確保するために歩行者検知システムの性能に対する要求を徐々に増加させる必要がある。 0.75
Despite recent improvements in pedestrian detection systems, many challenges still exist before we reach the object detection capabilities required for safe autonomous driving. 近年の歩行者検出システムの改善にもかかわらず、安全な自動運転に必要な物体検出能力に到達する前に、多くの課題が残っている。 0.63
One of the most complex and persistent challenges is that of partial occlusion, where a target object is only partially available to the sensor due to obstruction by another foreground object. 最も複雑で永続的な課題の1つは部分的閉塞であり、対象の物体は別の前景の物体による妨害によってセンサーに部分的にしか利用できない。 0.77
The frequency and variety of occlusion is large and diverse types in the automotive environment 自動車環境における閉塞の頻度と多様性は多種多様である 0.79
as pedestrians navigate between vehicles, buildings, traffic infrastructure, other road users. 歩行者は車、建物、交通インフラ、その他の道路利用者の間を移動します 0.60
Pedestrians can be occluded by static or dynamic objects, may inter-occlude (occlude one another) such as in crowds, and self-occlude - where parts of a pedestrian overlap. 歩行者は静的な物体や動的物体によって遮蔽され、人混みや歩行者の一部が重なり合うような(互いに遮蔽される)。 0.55
Leading pedestrian detection systems claim a detection performance of approximately 65%-75% of partially and heavily occluded pedestrians respectively using current benchmarks [2] [3] [4] [5]. 先行する歩行者検知システムは,現在ベンチマーク [2][3][4][5] を用いて,約65%~75% の偏りのある歩行者に対する検出性能を主張する。 0.68
However, recent research [6] demonstrates that the definition of the occurrence and severity of occlusion varies greatly, and a high degree of subjectivity is used to categorize pedestrian occlusion level in each benchmark. しかし,近年の研究では,オクルージョンの発生と重症度の定義は大きく異なり,各ベンチマークにおける歩行者のオクルージョンレベルを高い主観性で分類することが示されている。 0.76
In addition, occlusion is typically split into 2-3 broad, loosely defined, categories such as “partially” or “heavily” occluded [7] [8] [9]. さらに、オクルージョンは通常、"partially" や "heavily" の occluded [7] [8] [9] のような2-3 の広義、緩く定義されたカテゴリーに分けられる。 0.75
A knowledge gap exists for objective, detailed occlusion level analysis for pedestrian detection across the complete spectrum of occlusion levels. 閉塞レベルの全スペクトルにわたる歩行者検出のための客観的かつ詳細な閉塞レベル分析のための知識ギャップが存在する。 0.71
Use of an objective, fine grained occlusion specific benchmark will result in more objective, consistent and detailed analysis of pedestrian detection algorithms for partially occluded pedestrians. 客観的な細粒度オクルージョン特定ベンチマークを使用することで、部分的に閉塞した歩行者に対する歩行者検出アルゴリズムのより客観的で一貫性があり、詳細な分析が可能になる。 0.56
This research uses a novel, objective benchmark for partially occluded pedestrian detection to facilitate the objective characterization of pedestrian detection models. 本研究は, 歩行者検出モデルの客観的評価を容易にするために, 部分的に遮蔽された歩行者検出のための新しい客観的ベンチマークを用いる。 0.55
Objective characterization of occluded pedestrian detection performance is carried out for seven popular pedestrian detection routines for a range of occlusion levels from 0-99%. 閉塞レベルを0~99%とする7つの一般的な歩行者検出ルーチンに対して,閉塞歩行者検出性能の客観的評価を行った。 0.65
The contributions of this research are: この研究の貢献は以下のとおりである。 0.64
1. A novel, objective, test benchmark for partially occluded pedestrian detection is presented. 1. 部分的に閉塞された歩行者検出のための新しい客観的なテストベンチマークを示す。 0.57
2. Objective characterization of pedestrian detection performance is carried out for seven popular pedestrian detection routines. 2. 一般的な7つの歩行者検出ルーチンに対して,歩行者検出性能の客観的評価を行う。 0.67
II. RELATED WORK A number of popular pedestrian detection benchmarks provide annotation of pedestrian occlusion level to determine the relative detection performance for partially occluded pedestrians. II。 関連作業 多くの一般的な歩行者検出ベンチマークは、部分的に閉塞した歩行者の相対的検出性能を決定するために、歩行者の閉塞レベルのアノテーションを提供する。
訳抜け防止モード: II。 関連作業 多くの一般的な歩行者検出ベンチマークは、歩行者の咬合レベルのアノテーションを提供する 部分閉塞歩行者の相対検出性能を判定する。
0.66
Dollar et al [20] provides analysis on occluded pedestrians based on the Caltech Pedestrian Dataset [21]. Dollar et al [20]は、Caltech Pedestrian Dataset [21]に基づく、閉鎖された歩行者の分析を提供する。 0.72
Caltech Pedestrian estimates the occlusion ratio of pedestrians by annotating 2 bounding boxes, one for the visible pedestrian area and one for the annotators estimate of the total pedestrian area. カルテック歩行者は2つのバウンディングボックス,1つは可視歩行者領域,もう1つは歩行者総面積の注釈推定により,歩行者の咬合率を推定する。 0.64
Pedestrians are categorised into 2 occlusion categories, “partially occluded”, defined as 1-35% occluded and “heavily occluded”, defined as 35-80% occluded. 歩行者は2つのオクルージョンカテゴリに分類され、"部分オクルード"は1-35%がオクルード、"ヘビーリーオクルード"は35-80%がオクルードである。 0.54
Any pedestrians suspected to be more that 80% occluded are labelled as fully occluded. 80%以上の密閉されていると疑われる歩行者は、完全に密閉されているとラベル付けされている。 0.41
Analysis of the frequency of occlusion on 咬合の頻度の解析 0.51
英語(論文から抽出)日本語訳スコア
TABLE I: Overview of Pedestrian Detection Models. TABLE I: 歩行者検出モデルの概要 0.65
Classifier Training Data Weights Source 分類 トレーニングデータ重量源 0.55
Performance (mAP) パフォーマンス(mAP) 0.83
2 ResNet-50 FPN ResNet-50 FPN 2 ResNet-50 FPN ResNet-50 FPN 0.38
ResNet-101 ResNet-101 0.29
VGG16 MobileNetV3 Large VGG16 MobileNetV3 Large 0.42
ResNet-50 FPN Hourglass-104 ResNet-50 FPN Hourglass-104 0.29
COCO COCO COCO COCO COCO COCO COCO COCOCOCOCOCOCOCOCOCO COCO 0.09
Voxel51 [11] Voxel51 [11] Voxel51 [11] Voxel51[11] Voxel51[11] Voxel51[11] 0.46
Torchvision [15] Torchvision [15] トーチビジョン[15]トーチビジョン[15] 0.58
Voxel51 [11] Voxel51 [11] Voxel51[11] Voxel51[11] 0.47
0.398 0.411 0.411 0.412 0.464 0.361 0.533 0.398 0.411 0.411 0.412 0.464 0.361 0.533 0.21
Model FasterRCNN [10] MaskRCNN [12] R-FCN [13] SSD [14] SSDlite [16] [17] RetinaNet [18] CenterNet [19] Model FasterRCNN [10] MaskRCNN [12] R-FCN [13] SSDlite [16] [17] RetinaNet [18] CenterNet [19] 0.38
Fig. 1: Dataset Statistics. 第1図:データセット統計。 0.85
The number of pedestrian instances per occlusion level. 閉塞レベル当たりの歩行者インスタンス数。 0.57
The custom dataset contains 820 pedestrian instances under progressive levels of occlusion from 099%. カスタムデータセットには、プログレッシブなオクルージョンレベルの下で99%から820の歩行者インスタンスが含まれている。 0.54
the Caltech Pedestrian Dataset demonstrated that over 70% of pedestrians were occluded in at least one frame, highlighting the frequency of occurrence of pedestrian occlusion in the automotive environment. Caltech Pedestrian Datasetは、歩行者の70%以上が少なくとも1つのフレームに閉じ込められ、自動車環境における歩行者の閉塞の発生頻度を強調していることを示した。 0.66
The Eurocity Persons [9] Dataset categorizes pedestrians according to three occlusion levels: low occlusion (10%-40%), moderate occlusion (40%-80%), and strong occlusion (larger than 80%). ユーロシティー・パーソナリティ[9]データセットは、低閉塞(10%-40%)、中程度の閉塞(40%-80%)、強い閉塞(80%以上)の3つの閉塞レベルに基づいて歩行者を分類する。 0.65
Classification is carried out by human annotators in a similar manner to the Caltech Pedestrian Dataset. 分類は、Caltech Pedestrian Datasetと同じような方法で人間のアノテーションによって行われる。 0.72
The full extent of the occluded pedestrian is estimated, and the approximate level of occlusion is then estimated to be within one of the three defined categories. 閉鎖された歩行者の完全な範囲を推定し、およその閉塞レベルを3つの定義されたカテゴリーのうちの1つに見積もる。 0.76
Citypersons [8] calculate occlusion levels by drawing a line from the top of the head to the middle of the two feet of the occluded pedestrian. 都市住民[8]は、閉塞した歩行者の頭頂部から2フィートの中央まで線を引くことにより、咬合レベルを算出する。 0.74
Human annotators are required to estimate the location of the head and feet if these are not visible. 人間のアノテーションは、それが見えない場合は頭と足の位置を推定する必要がある。 0.68
A bounding box is then generated for the estimated full pedestrian area using a fixed aspect ratio of 0.41(width/height). そして、所定のアスペクト比0.041(width/height)を用いて推定された全歩行者エリアのバウンディングボックスを生成する。 0.63
This is then compared to the visible area bounding box to denote occlusion level. これは、閉塞レベルを示すために、可視領域境界ボックスと比較される。 0.69
These estimates of occlusion level are then categorized into two levels, “reasonable” (<=35% occluded) and “heavy occlusion” (35%-75%). これらの咬合レベルの推定値は、次に「理不尽」(=35%)と「重度の咬合」(35%-75%)の2つのレベルに分類される。 0.68
Similar approaches are taken in [22] [23] [24] [25] [26]. 同様のアプローチは [22] [23] [24] [25] [26] にも採用されている。 0.82
The Kitti Vision Benchmark [7] and Multispectral Pedestrian Dataset [27] tasked human annotators with marking each pedestrian bounding box as “visible”, “semi-occluded”, “fully-occluded”. kitti vision benchmark [7]とmultispectral pedestrian dataset [27]は、各歩行者境界ボックスを“可視”、”半閉鎖”、”完全に遮蔽”とマークする、人間の注釈を指示した。 0.68
Although these methods are useful for the relative comparison of detection performance on specific datasets, the occlusion categories used are broad (usually 2 to 3 categories), are inconsistent from benchmark to benchmark, and involve a high degree of subjectivity by the human annotator [6]. これらの手法は,特定のデータセットにおける検出性能の相対比較に有用であるが,オクルージョンカテゴリーは広範(通常2~3カテゴリ)であり,ベンチマークからベンチマークへ不一致であり,ヒトアノテーションによる主観性が高い [6]。 0.85
A knowledge gap exists for a detailed, objective benchmark to compare pedestrian detection performance for partially occluded pedestrians. 知識 歩行者検出性能を比較するための 詳細な客観的なベンチマークが 存在する 0.52
Many pedestrian detection analysis papers [20] [22] [28] [29] [30] [31] [32] [33] [34] [35] and occlusion-specific survey papers [2] [3] [5] [36] [37] highlight the outstanding challenges posed by occluded pedestrians, however, no known objective characterization of pedestrian detection performance spanning the spectrum of occlusion levels has been carried out to date. 20] [22] [28] [29] [30] [31] [32] [34] [35] and occlusion-specific survey papers [2] [3] [5] [36] [37] 多くの歩行者検出分析論文 [20] [22] [28] [30] [30] [32] [33] [34] [35] では、閉塞性歩行者の顕著な課題が強調されているが、現在までに、閉塞性レベルのスペクトルにまたがる歩行者検出性能の客観的な評価は知られていない。
訳抜け防止モード: Many pedestrian detection analysis papers [ 20 ] [ 22 ] [ 28 ] [ 29 ] [ 30 ] [ 31 ] [ 32 ] [ 33 ] [ 34 ] [ 35 ] and occlusion - 特定の調査論文 [2 ] [ 3 ] [ 5 ] [ 36 ] [ 37 ] は、閉塞した歩行者が直面する顕著な課題を強調している。 しかし, 咬合レベルのスペクトルにまたがる歩行者検出性能の客観的評価は, これまでに行われていない。
0.88
Gilroy et al [38] describes an objective method of occlusion level annotation and visible body surface area estimation of partially occluded pedestrians. Gilroy et al [38] は,部分閉塞歩行者の咬合レベルアノテーションと視認的体表面積推定の客観的手法について述べる。 0.70
Keypoint detection is applied to identify semantic body parts and findings are cross-referenced with a visibility score and the pedestrian mask in order to confirm the presence or occlusion of each semantic part. 意味部位の特定にキーポイント検出を適用し、各意味部位の存在や閉塞を確認するために、目視スコアと歩行者マスクとを相互参照する。 0.70
A novel method of 2D body surface area estimation based on the ”Wallace rule of Nines” [6] [39] is then used to quantify the total occlusion level of pedestrians. 次に, 歩行者の完全閉塞レベルを定量化するために, “wallace rule of nines” [6] [39] に基づく2次元体表面積推定法を提案する。 0.74
III. METHODOLOGY A novel occluded pedestrian test dataset, containing 820 person instances in 724 images, has been created in order to characterize pedestrian detection performance across a range of occlusion levels from 0 to 99% occluded. III。 方法論 724枚の画像に820件の人体サンプルを含む新しい閉塞歩行者検定データセットが作成され、0~99%の閉塞レベルにわたる歩行者検出性能を特徴付ける。 0.54
A diverse mix of images are used ensure that a wide variety of target pedestrians, pedestrian poses, backgrounds, and occluding objects are represented. 多様な画像が使われており、多様な歩行者、歩行者のポーズ、背景、閉塞物などが表現されている。
訳抜け防止モード: さまざまな画像が使われているので、確実に さまざまなターゲット歩行者、歩行者のポーズ、背景、および閉塞物が表現されます。
0.62
The dataset is sourced from three main categories of images: データセットは3つの主要なカテゴリのイメージから提供されています。 0.55
1) The ”occluded body” subset of the partial re-identification dataset ”Partial ReID” provided by Zheng et al [40], 1) Zheng et al [40] による部分的再識別データセット “Partial ReID” の “occluded body” サブセット 0.77
2) The Partial ReID ”whole body” subset [40] with custom superimposed occlusions and 2)カスタムな重畳咬合を伴う部分リード“whole body”サブセット[40] 0.69
3) Images collated from publicly available sources including [6] [8] [9] [41]. 3) [6] [8] [9] [41]を含む公開ソースから照合された画像。 0.76
All images are annotated using the objective occlusion level classification method described in [38]. 全ての画像は[38]に記載された客観的閉塞レベル分類法を用いて注釈付けされる。 0.68
Complex cases at very high occlusion rates were manually verified using the method of 2D body surface area estimation presented in [6]. 6]で示される2次元体表面積推定法を用いて,非常に高い閉塞率の複雑な症例を手作業で検証した。 0.74
Each occlusion level contains a minimum of 55 pedestrian instances. 各咬合レベルは、少なくとも55の歩行者を含む。 0.64
Dataset statistics by occlusion level and a sample of the test dataset can be seen in Figure 1 and Figure 2 respectively. 閉塞レベルによるデータセット統計とテストデータセットのサンプルは、それぞれ図1と図2で見ることができる。 0.90
A. Pedestrian Detection Models A.歩行者検出モデル 0.69
Performance characterization was carried out on seven popular pedestrian detection models. 7つの歩行者検出モデルの性能評価を行った。 0.73
All models use publicly available pretrained weights from two popular model zoos [15] [11] and are trained using the COCO “train 2017” dataset [42]. すべてのモデルは、2つの人気のあるモデル動物園 [15] [11] のトレーニング済みウェイトを使用しており、coco “train 2017” データセット [42] を使ってトレーニングされている。 0.64
An overview of the pedestrian detection models can be seen 歩行者検出モデルの概要 0.39
英語(論文から抽出)日本語訳スコア
3 Fig. 2: Dataset Sample. 3 図2:データセットのサンプル。 0.63
An example of dataset images for each level of occlusion. 咬合レベルごとにデータセットイメージを例に挙げる。 0.72
The custom dataset contains 820 pedestrian instances containing a wide range of pedestrian poses and occluding objects. カスタムデータセットには、幅広い歩行者ポーズとオクルディングオブジェクトを含む820の歩行者インスタンスが含まれている。 0.68
All images are compiled from publicly available sources. すべての画像は、公開されているソースからコンパイルされる。 0.56
in Table I. The pedestrian detection models chosen for characterization can be divided into 3 categories: Two-Stage Frameworks, One-Stage Frameworks and Keypoint Estimation. テーブルiに キャラクタリゼーションに選択された歩行者検出モデルは,2段階フレームワーク,1段階フレームワーク,キーポイント推定の3つのカテゴリに分類できる。 0.57
Twostage frameworks such as FasterRCNN [10], MaskRCNN [12] and R-FCN [13] apply two separate networks to perform classification. fasterrcnn [10], maskrcnn [12], r-fcn [13] といった2段階のフレームワークは、2つの別々のネットワークを適用して分類を行う。
訳抜け防止モード: FasterRCNN [10 ], MaskRCNN [12 ] のような2段階のフレームワーク R - FCN [13 ] は2つの異なるネットワークを適用して分類を行う。
0.78
One network is used to propose regions of interest and a dedicated second network performs object detection [43]. 1つのネットワークが関心領域の提案に使用され、専用の第2のネットワークがオブジェクト検出を実行する [43]。 0.76
One-stage frameworks such as RetinaNet [18], SSD [14] and SSDLite [16] [17] attempt to reduce computation and increase speed by performing object detection using a single feed forward convolutional network that does not interact with a region proposal module. RetinaNet[18],SSD[14],SSDLite[16][17]などのワンステージフレームワークは,領域提案モジュールと相互作用しない単一フィードフォワード畳み込みネットワークを用いて,オブジェクト検出を行うことにより,計算の削減と高速化を図っている。 0.82
RetinaNet also implements a novel method of “focal loss” which is used to reduce the imbalance between foreground and background classes during training with a view to increasing detection precision. RetinaNetはまた、検出精度を高めるためにトレーニング中の前景と背景のクラス間の不均衡を軽減するために使われる"焦点損失"という新しい方法を実装している。 0.75
CenterNet [19] takes an alternative approach based on keypoint estimation. centernet [19] はキーポイント推定に基づく代替アプローチを取る。 0.79
Objects are represented as a single point at their bounding box center identified by a heat map generated using a fully convolutional network. オブジェクトは、完全に畳み込みネットワークで生成されるヒートマップによって識別される境界ボックスセンターの1つのポイントとして表現される。 0.71
Other object features such as object size, orientation and pose are then regressed directly from the image features at the center location. オブジェクトのサイズ、向き、ポーズなどの他のオブジェクト機能は、中心位置にある画像の特徴から直接回帰されます。 0.79
B. Experiments Detection performance is analyzed for the complete test dataset, and for each occlusion range from 0-9% to 9099%, for pedestrian detection models to assess the impact of progressive levels of occlusion on the detectability of pedestrians. B.実験 歩行者検出モデルでは,全試験データセットに対して検出性能を解析し,0-9%から9099%の範囲において,歩行者の検知性に対する累進的な閉塞レベルの影響を評価する。 0.82
Experiments are carried out with an intersection over union (IoU) of 0.5. 実験は、結合(IoU)の0.5の交差点で実施される。 0.75
Analysis is carried out using Voxel51 [44] and COCO style evaluation metrics. Voxel51[44]とCOCOスタイルの評価指標を用いて分析を行う。 0.79
A summary of the results are shown in Figure 3, Figure 4 and Figure 5. 結果の概要は、図3、図4、図5に示されます。 0.68
IV. RESULTS AND ANALYSIS Results demonstrate that pedestrian detection performance (mAP) declines as the level of pedestrian occlusion increases, Figure 3(a). IV。 結果と分析 その結果、歩行者検出性能(mAP)は、歩行者閉塞のレベルが増加するにつれて低下することが明らかとなった(図3(a)。 0.54
The number of false negative detections increase as occlusion level increases, Figure 5(e) and in general, the number of true positive detections begin to significantly decrease as occlusion level increases for pedestrians more than 50% occluded, Figure 5(a). 誤検出回数は、咬合レベルが増加するにつれて増加し、図5(e)、そして一般に、咬合レベルが50%以上の歩行者に対して増加するにつれて、真の陽性検出回数が著しく減少し始める、図5(a)。
訳抜け防止モード: 偽陰性検出の数は増加する 閉塞レベルは上昇します 図5(e) と一般には、真の正検出の数が始まります 歩行者の閉塞レベルが50%以上増加するにつれて、大幅に減少する、図5(a)。
0.79
As shown in Figure 4, of the seven popular pedestrian detection models analyzed, CenterNet [19] has the greatest overall detection performance for partially occluded pedestrians with an overall mAP of 0.533, followed by SSDLite [16] [17] with a total dataset mAP of 0.464. 分析された7つの一般的な歩行者検出モデルのうち、図4に示すように、centernet [19] は0.533の全体地図を持つ部分閉塞歩行者において、最も全体的な検出性能を有しており、ssslite [16] [17] の合計データセットマップは 0.464 である。
訳抜け防止モード: 図4に示すように、7つの人気のある歩行者検出モデルが分析されている。 CenterNet [19 ] は, 全体のmAP 0.533。 次に SSDLite [ 16 ] [ 17 ] の合計データセット mAP が 0.464 である。
0.72
英語(論文から抽出)日本語訳スコア
4 (a) (b) Fig. 3: Detection Performance by Occlusion Level. 4 (a) (b) 第3図:咬合レベルによる検出性能 0.49
Pedestrian detection performance of seven popular pedestrian detection models is displayed for images containing progressive levels of occlusion. プログレッシブ・オブクルージョンを含む画像に対して,7種類の歩行者検出モデルの歩行者検出性能を示す。 0.64
Pedestrian detection performance declines in a linear manner as the level of pedestrian occlusion is increased, 歩行者閉塞度の増加に伴い歩行者検出性能は直線的に低下する。 0.64
(a). CenterNet [19] is the highest performing detection model for pedestrians up to 80% occluded, (a) CenterNet[19]は、最大80%の歩行者を収容する最も高い行動検出モデルである。 0.51
(b). MaskRCNN [12] has the greatest detection performance for pedestrians occluded more than 80%, Figure 4 (b) MaskRCNN[12]は、80%以上の歩行者の最大検出性能、第4図 0.53
(b). RetinaNet [18] is the lowest performing overall on the test data with a mAP of 0.361. (b) RetinaNet[18]は、mAPが0.361で、テストデータ全体のパフォーマンスが最低である。 0.51
RetinaNet’s true positive detections begin to degrade in a linear fashion once pedestrians are more than 30% occluded and this model has the highest number of false negatives for pedestrians more than 30% occluded, Figure 5 retinanetの真のポジティブな検出は、歩行者が30%以上オクルードされ、このモデルは、30%以上オクルードされた歩行者にとって最も高い偽陰性率を持つ、図5のように直線的に劣化し始める。
訳抜け防止モード: RetinaNetの真の陽性検出は、歩行者が30%以上離れると直線的に劣化し始める このモデルでは、歩行者が30%以上排除された場合の偽陰性が最も多い、図5
0.74
(a) and 5(e). (a) と 5(e) である。 0.79
Single Shot Detectors, SSD [14] and SSDLite [16] [17] have the highest number of true positive detections at high levels of occlusion, Figure 5 シングルショット検出器, SSD[14], SSDLite[16] [17] は, 高い閉塞レベルにおいて, 正の正の検出回数が最も多い, 図5 0.86
(a), and maintain a very high level of true positive detections up to 60% occlusion, however their false positive rate is in the region of 100 times larger than popular two stage detectors such as FasterRCNN [10] and RFCN [13], Figure 5 (a) 最大60%の正検出を極めて高い水準に維持するが、偽陽性率はFasterRCNN[10] やRFCN[13] などの一般的な2段階検出器の100倍の領域にある。
訳抜け防止モード: (a) 最大60%の閉塞率で正の正の検出を極めて高い水準に維持する。 しかし、偽陽性率は、FasterRCNN [10 ] や RFCN [13 ],Figure 5 のような一般的な2段階検出器の100倍の領域にある。
0.78
(b), and approximately 16 times larger than MaskRCNN [12], Figure 5 (b)、MaskRCNN [12]、図5の約16倍の大きさです。 0.75
(c). Unlike false negatives, the number of false positives per image does not appear to be significantly impacted by the occlusion level as these are not typically related to the target pedestrian in an image. (c)。 偽陰性とは異なり、画像毎の偽陽性数は、通常、画像中のターゲット歩行者と関係がないため、閉塞レベルの影響を受けないようである。 0.49
SSDlite [16] [17] outperforms SSD [14] for almost all levels of occlusion despite having a higher number of false SSDlite[16][17]は、偽数が多いにもかかわらず、ほとんどすべてのレベルのSSD[14]を上回っている 0.79
Fig. 4: Overall Detection Performance. 図4: 全体的な検出性能。 0.80
CenterNet has the greatest overall performance with a mAP of 0.533, followed by SSDlite (mAP = 0.464). CenterNetの全体的なパフォーマンスは0.533であり、SSDlite(mAP = 0.464)が続く。 0.77
RetinaNet has the lowest overall performance on the test dataset with a mAP of 0.361. RetinaNetはテストデータセットで最低パフォーマンスで、mAPは0.361である。 0.72
英語(論文から抽出)日本語訳スコア
5 (a) (c) (b) 5 (a) (c) (b) 0.43
(d) Fig. 5: True Positives, False Positives and False Negatives. (d) 第5図:真陽性、偽陽性、偽陰性 0.49
(a) displays the percentage of true positive detections by occlusion level for seven popular pedestrian detection models. (a) 人気の歩行者検出モデル7件について, 閉塞レベルによる真の陽性検出率を示す。 0.68
(b), (c) and (b) (c)および 0.56
(d) display the number of false positives per occlusion level for each model. (d) 各モデルに対する閉塞レベル毎の偽陽性数を表示する。 0.78
Note the differences in the Y-axis for each graph. 各グラフのY軸の違いに注意。 0.71
(c) displays the number of false negatives by occlusion level. (c) 排他レベルによる偽陰性の数を表示する。 0.73
Results demonstrate that the number of false negative detections increase as the pedestrian occlusion level increases, and the percentage of true positive detections reduce significantly for pedestrians over 50% occluded. その結果,歩行者の咬合レベルが増加するにつれて偽陰性検出の数が増加し,50%以上の歩行者では正陽性検出の割合が著しく減少することがわかった。 0.74
(e) positive detections. MaskRCNN [12] has a higher percentage of true positives than Faster RCNN [10] for pedestrians over 40% occluded, however, it has around 4 times more false positive detections for the same data, Figure 5. (e) 陽性検出 MaskRCNN[12]は、40%以上の歩行者にとって、より高速なRCNN[10]よりも真陽性率が高いが、同じデータに対して、偽陽性検出が約4倍多い、図5。 0.54
Mask RCNN, RFCN and SSD all have similar overall performance on the test dataset, however, MaskRCNN and RFCN have a higher detection performance than SSD for pedestrians that are more than 60% occluded, Figure 3(b). Mask RCNN, RFCN, および SSD はすべてテストデータセット上での全体的な性能は似ているが, Mask RCNN と RFCN は60% 以上の歩行者に対して, SSD よりも高い検出性能を有する(図3(b)。 0.86
Figure 6 compares the output from a two stage detector, FasterRCNN, with a one stage detector, SSD, for an occluded pedestrian. 図6は、2つのステージ検出器であるFasterRCNNの出力と、1つのステージ検出器であるSSDを比較します。 0.72
Two stage detectors first generate key regions of 2つのステージ検出器が最初に鍵領域を生成する 0.63
interest before applying object detection, one stage detectors directly apply object detection to the entire image. 物体検出を行う前に、あるステージ検出器が画像全体に直接オブジェクト検出を適用する。 0.84
Figure 6 demonstrates that for the same image, FasterRCNN produces 4 detection outputs (1 true positive with 88% confidence and 3 false positives), Figures 6 図6は、同じ画像に対して、FasterRCNNが4つの検出出力(信頼度88%、偽陽性3つ)を生成することを示しています。 0.77
(b) and 6 (c), whereas SSD produces 84 detection outputs (1 true positive with 20% confidence and 83 false positives), Figures 6 (b)・6 (c)に対し、SSDは84個の検出出力(信頼率20%、偽陽性率83)を生成している(図6)。 0.53
(d) and 6 (e). (d)および6。 (e) 0.61
This indicates that all detection models must not be treated equally in the design of a pedestrian detection system. これは、全ての検出モデルは歩行者検出システムの設計において等しく扱うべきではないことを示している。 0.71
The characteristics of the detection model used must be taken into account further downstream in the object detection system, as some model 対象物検出システムでは, 対象物検出システムの下流部をモデルとして, 検出モデルの特徴を考慮に入れなければならない。
訳抜け防止モード: 対象物検出システムでは, 対象物検出モデルの特徴をさらに下流に考慮しなければならない。 あるモデルとして
0.85
英語(論文から抽出)日本語訳スコア
6 (a) (b) (c) 6 (a) (b) (c) 0.43
(d) Fig. 7: Analysis of data based on head visibility. (d) 第7図:頭部視認性に基づくデータの分析。 0.60
(a) Dataset statistics based on head visibility. (a)ヘッド可視性に基づくデータセット統計。 0.88
820 total instances, 568 instances with head visible, 252 instances with head occluded. 合計820インスタンス、568インスタンス、ヘッド可視性252インスタンス、ヘッドoccluded。 0.58
(b) Detection performance for FasterRCNN, SSD and RetinaNet for all data. (b)全データに対するFasterRCNN,SSD,Retin aNetの検出性能。 0.78
(c) Detection performance for only images with head visible. (c)頭部を視認できる画像のみに対する検出性能。 0.88
Note, no occlusion level of more than 90% possible with head visible. なお、頭部を視認できる90%以上の閉塞レベルはない。 0.62
(d) Detection performance for only images with head occluded. (d)頭部を隠蔽した画像のみの検出性能。 0.81
This analysis demonstrates that, in general, detection performance degrades as occlusion level increases regardless of the presence of key semantic features such as a pedestrian’s head. この分析は、一般的に、歩行者の頭のような重要な意味的特徴の有無にかかわらず、閉塞レベルが増加するにつれて検出性能が低下することを示す。 0.63
been broad, subjective, and inconsistent in their definition of the severity of occlusion. 広範で主観的で、咬合の重症度の定義に一貫性がない。 0.55
This research presents a novel test benchmark for the detailed, objective analysis of pedestrian detection models for partially occluded pedestrians. 本研究は, 部分閉塞歩行者の歩行者検出モデルの詳細, 客観的解析のための新しいテストベンチマークを提案する。 0.71
Detection performance is characterized for seven popular pedestrian detection models across a range of occlusion levels from 0-99%. 検出性能は,0~99%の範囲で人気の歩行者検出モデル7種類に特徴付けられる。 0.72
Results demonstrate that detection performance experiences a linear decline as the occlusion level increases and the visibility of a pedestrian is reduced. その結果, 閉塞レベルが増加し, 歩行者の視認性が低下するにつれて, 検出性能は直線的に低下することがわかった。 0.63
An increase in the number of false negative detections is observed as occlusion level increases and the percentage of true positive detections significantly 咬合数の増加と真正検出率の増加に伴い偽陰性検出数の増加が観察される。
訳抜け防止モード: 咬合レベルが上昇するにつれて偽陰性検出数の増加が観察される 真の陽性検出の割合は
0.78
Fig. 6: FasterRCNN vs. SSD. 図6: 高速RCNN vs. SSD。 0.85
Detection performance is compared for a two stage network, FasterRCNN vs. a one stage network, SSD for an occluded pedestrian. 検出性能は, 高速RCNN対1段ネットワーク, 閉塞歩行者用SSDの2段ネットワークで比較される。 0.75
The ground truth is shown in 根拠の真実が示されています 0.58
(a). FasterRCNN generates 4 proposals (a) FasterRCNNは4つの提案を生成する 0.41
(b), 1 true positive detection with 88% confidence (b)信頼度88%の真正検出1点 0.70
(c), and 3 false positives. (c),偽陽性が3例であった。 0.62
SSD generates 84 detections ssdが84個の検出を生成 0.49
(d), 1 true positive with 22% confidence (d) 信頼度22%で正の1点 0.38
(e), and 83 false positives. (e),偽陽性83例であった。 0.69
outputs may be less reliable than others for safety critical systems. 安全上重要なシステムでは 出力の信頼性が低いかもしれません 0.63
A. Key Semantic Parts a. 重要な意味部分 0.70
Further analysis has been carried out さらなる分析が行われました 0.90
to determine the impact that the visibility of a pedestrian’s head has on the detection of occluded pedestrians. 歩行者の頭部の視認性が、閉塞した歩行者の検出に与える影響を判断する。 0.72
The dataset was split into two subsets: データセットは2つのサブセットに分割された。 0.57
1) Only images where the target pedestrian’s head is visible and 1)対象歩行者の頭部を視認する画像のみとすること。 0.77
2) Only images where the target pedestrian’s head is occluded. 2)対象歩行者の頭部を遮蔽する画像のみである。 0.76
Of the 820 pedestrian instances, the target pedestrian’s head is visible in 582 instances and is occluded in 252 instances. 820の歩行者のうち、ターゲットの歩行者の頭部は572のインスタンスで見え、252のインスタンスでオクルードされる。 0.67
Figure 7 (a) displays the percentage of pedestrian instances with their head visible across each of the occlusion levels. 図7 (a)各咬合レベルにわたって頭部を視認する歩行者インスタンスの割合を表示する。 0.56
Three pedestrian detection models, FasterRCNN, RetinaNet and SSD were then tested on both data subsets across the occlusion range. FasterRCNN, RetinaNet, SSDの3つの歩行者検出モデルがオクルージョン範囲の両データサブセットでテストされた。 0.82
This experiment demonstrates that, regardless of whether a pedestrians head is visible, a distinct declining profile in detection performance is observed as pedestrian occlusion level increases, Figures 7 本実験は, 歩行者の頭部が見えているか否かに関わらず, 歩行者の咬合レベルが増加するにつれて, 検出性能の著しい低下が観察されることを示す。 0.63
(b), 7 (c) and 7 (b)7 (c)、7 0.34
(d). This indicates that the detection models under test are not overly reliant on head visibility for the classification of partially occluded pedestrians. (d)。 これは, 部分的に閉塞した歩行者の分類において, テスト中の検出モデルは頭部視認性に過度に依存していないことを示している。 0.47
V. CONCLUSION V.コンキュレーション 0.76
The detection of partially occluded pedestrians remains a persistent challenge for driver assistance systems and autonomous vehicles. 部分的に閉塞された歩行者の検出は、運転支援システムや自動運転車にとって依然として困難な課題である。 0.49
Current methods of characterizing detection performance for partially occluded pedestrians have 部分的に閉塞した歩行者の検知性能の現況 0.70
英語(論文から抽出)日本語訳スコア
degrade for pedestrians who are more than 50% occluded. 50%以上を封鎖した歩行者の 脱品です 0.64
Further analysis demonstrates that not all pedestrian detection models should be treated equally within an object detection system. さらなる分析により、全ての歩行者検出モデルが物体検出システム内で等しく扱われるべきではないことが示されている。
訳抜け防止モード: さらなる分析は 全ての歩行者検出モデルは 物体検出システム内で等しく扱われるべきではない
0.89
The speed vs. accuracy trade-off, encouraged by the near real-time requirements of autonomous vehicles, can result in high levels of false positive detections and lower detection confidence at progressive levels of pedestrian occlusion, particularly when using single stage detection models. 自動運転車のほぼリアルタイム要件によって奨励される速度対精度のトレードオフは、特に単一ステージ検出モデルを使用する場合、特に歩行者閉塞の進行レベルにおいて、偽陽性の検出と検出信頼性の低下をもたらす。 0.76
Thorough objective characterization of pedestrian detection models at the design stage will improve the performance of object detection systems by calibrating the priority of detections in scenarios where known weaknesses can occur. 設計段階での歩行者検出モデルの完全な客観的評価は、既知の弱点が発生するシナリオにおける検出の優先度を調整し、物体検出システムの性能を向上させる。 0.77
System improvements may be gained through the use of an occlusion-aware step in the object detection pipeline to inform the priority of camera-based detections in sensor fusion networks for SAE level 4 and level 5 autonomous vehicles. saeレベル4とレベル5の自動運転車のセンサーフュージョンネットワークにおけるカメラベースの検出の優先順位を示すために、オブジェクト検出パイプラインのオクルージョン認識ステップを使用することで、システムの改善を得ることができる。 0.72
In this manner, any reduction in performance at high occlusion levels can be mitigated in the design of the overall system to increase the safety of vulnerable road users and improve the efficiency of path planning based on environment detection. このようにして、脆弱な道路利用者の安全性を高め、環境検出に基づく経路計画の効率を向上させるため、システム全体の設計において、高い咬合レベルにおける性能の低下を緩和することができる。 0.74
Widespread use of the proposed benchmark will result in more objective, consistent and detailed analysis of pedestrian detection models for partially occluded pedestrians. 提案手法が広く採用されれば, 歩行者検出モデルの客観的, 一貫性, 詳細な分析が可能となる。 0.61
REFERENCES [1] S. international, “Taxonomy and definitions for terms related to driving 参考 [1]国際的「運転に関する用語のタクソノミーと定義」 0.55
automation systems for on-road motor vehicles,” SAE, 2018. とsaeは2018年に発表した。 0.06
[2] S. Gilroy, E. Jones, and M. Glavin, “Overcoming occlusion in the automotive environment-a review,” IEEE Transactions on Intelligent Transportation Systems, 2019. [2] s. gilroy, e. jones, and m. glavin, “overcoming occlusion in the automotive environment-a review” ieee transactions on intelligent transportation systems, 2019” (英語)
訳抜け防止モード: [2]S・ギルロイ、E・ジョーンズ、M・グラビン。 「自動車環境における排除の克服」 IEEE Transactions on Intelligent Transportation Systems, 2019 を参照。
0.73
[3] C. Ning, L. Menglu, Y. Hao, S. Xueping, and L. Yunhong, “Survey of pedestrian detection with occlusion,” Complex & Intelligent Systems, vol. C.Ning, L. Menglu, Y. Hao, S. Xueping, L. Yunhong, “Survey of pedestrian detection with Oocclusion”, Complex & Intelligent Systems, vol.
訳抜け防止モード: [3]C.Ning,L.Menglu,Y.Ha o, S. XuepingとL. Yunhongは、“Occlusionによる歩行者検出のサーベイ”と述べている。 Complex & Intelligent Systems, vol。
0.73
7, no. 1, pp. 577–587, 2021. 7, No. 1, pp. 577-587, 2021。 0.95
[4] J. Cao, Y. Pang, J. Xie, F. S. Khan, and L. Shao, “From handcrafted to deep features for pedestrian detection: A survey,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021. J. Cao, Y. Pang, J. Xie, F. S. Khan, L. Shao, “From Handcrafted to Deep features for pedestrian detection: A survey”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021”. 2016年3月1日閲覧。
訳抜け防止モード: [4]J.Cao,Y.Pang,J.Xie, F.S.カーンとL. Shao。 歩行者検出のための手工芸品から深い特徴へ IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021。
0.75
[5] Y. Xiao, K. Zhou, G. Cui, L. Jia, Z. Fang, X. Yang, and Q. Xia, “Deep learning for occluded and multi-scale pedestrian detection: A review,” IET Image Processing, 2021. Y.Xiao, K. Zhou, G. Cui, L. Jia, Z. Fang, X. Yang, Q. Xia, “Deep Learning for occluded and multi-scale pedestrian detection: A review”, IET Image Processing, 2021。
訳抜け防止モード: [5]Xiao,K.Zhou,G.Cui, L. Jia, Z. Fang, X. Yang, Q. Xia 閉鎖型・マルチスケール歩行者検出のための深層学習 : レビュー, IET画像処理, 2021年
0.79
[6] S. Gilroy, M. Glavin, E. Jones, and D. Mullins, “Pedestrian occlusion level classification using keypoint detection and 2d body surface area estimation,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021, pp. 3833–3839. S. Gilroy, M. Glavin, E. Jones, D. Mullins, “Pedestrian occlusion level classification using keypoint detection and 2d body surface area estimation” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021, pp. 3833–3839。
訳抜け防止モード: S. Gilroy, M. Glavin, E. Jones, とD. Mullinsは言う。「キーポイント検出と2次元体表面積推定による歩行者の閉塞レベル分類」。 In Proceedings of the IEEE / CVF International Conference on Computer Vision 2021 , pp . 3833–3839 .
0.82
[7] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? the kitti vision benchmark suite,” in 2012 IEEE Conference on Computer Vision and Pattern Recognition. 7] a. geiger, p. lenz, r. urtasun, “ are we ready for autonomous driving? the kitti vision benchmark suite” 2012 ieee conference on computer vision and pattern recognitionで発表された。 0.80
IEEE, 2012, pp. 3354–3361. ieee, 2012 pp. 3354-3361。 0.53
[8] S. Zhang, R. Benenson, and B. Schiele, “Citypersons: A diverse dataset for pedestrian detection,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, pp. 3213–3221. S. Zhang, R. Benenson, and B. Schiele, “Citypersons: a various dataset for pedestrian detection” in Proceedings on the IEEE Conference on Computer Vision and Pattern Recognition, 2017 pp. 3213–3221。
訳抜け防止モード: [8 ]S.Zhang、R. Benenson、B. Schiele 都市住民 : IEEEコンピュータビジョン会議における歩行者検出のための多様なデータセット and Pattern Recognition , 2017 , pp . 3213–3221 。
0.77
[9] M. Braun, S. Krebs, F. Flohr, and D. M. Gavrila, “Eurocity persons: A novel benchmark for person detection in traffic scenes,” IEEE transactions on pattern analysis and machine intelligence, vol. M. Braun, S. Krebs, F. Flohr, D. M. Gavrila, “Eurocity person: a novel benchmark for person detection in traffic scene”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション。
訳抜け防止モード: [9 ]M. Braun, S. Krebs, F. Flohr, D. M. Gavrila, “Eurocity person : a novel benchmark for person detection in traffic scene” IEEEによるパターン解析とマシンインテリジェンスに関するトランザクション。
0.85
41, no. 8, pp. 1844–1861, 2019. 41, No. 8, pp. 1844-1861, 2019。 0.47
[10] S. Ren, K. He, R. Girshick, and J. Sun, “Faster r-cnn: towards real-time object detection with region proposal networks,” IEEE transactions on pattern analysis and machine intelligence, vol. 10] S. Ren, K. He, R. Girshick, J. Sun, “Faster r-cnn: towards real-time object detection with region proposal network”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション。 0.86
39, no. 6, pp. 1137–1149, 2016. 39, no. 6, pp. 1137-1149, 2016年。 0.79
[11] B. E. Moore and J. 11]b.e.ムーアとj. 0.69
J. Corso, “Fiftyone model zoo,” Online. j. corso, “fiftyone model zoo” オンライン。 0.80
https://voxel51.com/ docs/fiftyone/user guide/model zoo, 2022. https://voxel51.com/ docs/fiftyone/user guide/model zoo, 2022。 0.24
[12] K. He, G. Gkioxari, P. Doll´ar, and R. Girshick, “Mask r-cnn,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. 2961–2969. K. He, G. Gkioxari, P. Doll ́ar, R. Girshick, “Mask r-cnn” in Proceedings of the IEEE International conference on computer vision, 2017 pp. 2961–2969。
訳抜け防止モード: [12 ]K. He, G. Gkioxari, P. Doll ́ar. そしてR. Girshick氏は、IEEEのコンピュータビジョンに関する国際会議、Proceedingsで“Mask r - cnn, ”と評した。 2017 , pp . 2961–2969 .
0.67
[13] J. Dai, Y. Li, K. He, and J. Sun, “R-fcn: Object detection via regionbased fully convolutional networks,” in Advances in neural information processing systems, 2016, pp. 379–387. 13] j. dai, y. li, k. he, and j. sun, “r-fcn: object detection via region based full convolutional networks” in advances in neural information processing systems, 2016 pp. 379–387. (英語)
訳抜け防止モード: [13 ]J. Dai, Y. Li, K. He, そして J. Sun は,「R - fcn : 地域ベースの完全畳み込みネットワークによる物体検出」 In Advances in Neural Information Processing System, 2016, pp. 379–387 。
0.86
[14] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C. 14] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed, C. 0.49
-Y. Fu, and A. C. Berg, “Ssd: Single shot multibox detector,” in European conference on computer vision. -y。 FuとA.C. Bergの“Ssd: Single shot multibox detector”は、ヨーロッパのコンピュータビジョンに関するカンファレンスで発表された。
訳抜け防止モード: -y。 Fu, and A. C. Berg, “Ssd : Singleshot Multibox detector” ヨーロッパにおけるコンピュータビジョンに関する会議。
0.61
Springer, 2016, pp. 21–37. スプリンガー、2016年、p.21-37。 0.50
7 zoo,” Online. 7 動物園』。 オンライン。 0.61
[15] Pytorch, “Torchvision 15] ピトーチ 『トーチビジョン』 0.41
model https://pytorch.org/ vision/stable/models .html, 2022. モデル https://pytorch.org/ vision/stable/models .html, 2022。 0.49
[16] A. Howard, M. Sandler, G. Chu, L. A. Howard, M. Sandler, G. Chu, L. 0.38
-C. Chen, B. Chen, M. Tan, W. Wang, Y. Zhu, R. Pang, V. Vasudevan et al , “Searching for mobilenetv3,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 1314–1324. -C。 Chen, B. Chen, M. Tan, W. Wang, Y. Zhu, R. Pang, V. Vasudevan et al , “ Searching for mobilenetv3”, Proceedings of the IEEE/CVF International Conference on Computer Vision, 2019, pp. 1314–1324。
訳抜け防止モード: -C。 chen, b. chen, m. tan, w. wang, y. zhu, r. pang, v. vasudevanら、“mobilenetv3の検索” ieee/cvf国際コンピュータビジョン会議の議事録 2019 , pp . 1314–1324 .
0.59
[17] M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, and L. M. Sandler, A. Howard, M. Zhu, A. Zhmoginov, L. 0.38
-C. Chen, “Mobilenetv2: Inverted residuals and linear bottlenecks,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2018, pp. 4510–4520. -C。 chen, “mobilenetv2: inverted residuals and linear bottlenecks” ieee conference on computer vision and pattern recognition, 2018, pp. 4510–4520 の議事録に書かれている。 0.60
[18] T. -Y. [18]T。 -y。 0.36
Lin, P. Goyal, R. Girshick, K. He, and P. Doll´ar, “Focal loss for dense object detection,” in Proceedings of the IEEE international conference on computer vision, 2017, pp. 2980–2988. Lin, P. Goyal, R. Girshick, K. He, P. Doll ́ar, “Focal loss for dense object detection” in Proceedings of the IEEE International conference on computer vision, 2017, pp. 2980–2988。
訳抜け防止モード: lin, p. goyal, r. girshick, k. he. p. doll ́ar, “focal loss for dense object detection” (英語) 2017年ieee international conference on computer visionで開催。 2980-2988頁。
0.75
[19] X. Zhou, D. Wang, and P. Kr¨ahenb¨uhl, “Objects as points,” arXiv [19] X. Zhou, D. Wang, P. Kr 'ahenb 'uhl, “Objects as points” arXiv 0.46
preprint arXiv:1904.07850, 2019. プレプリントarxiv:1904.07850, 2019。 0.49
[20] P. Dollar, C. Wojek, B. Schiele, and P. Perona, “Pedestrian detection: An evaluation of the state-of-the-art,” IEEE transactions on pattern analysis and machine intelligence, vol. Pedestrian Detection: An Evaluation of the State-of-the-art”, IEEETransaction on Pattern Analysis and Machine Intelligence, vol.[20] P. Dollar, C. Wojek, B. Schiele, P. Perona。
訳抜け防止モード: P. Dollar, C. Wojek, B. Schiele, ペローナは「歩行者検出 : 芸術の状態の評価」と評した。 IEEEによるパターン解析とマシンインテリジェンスに関するトランザクション。
0.74
34, no. 4, pp. 743–761, 2011. 34, no. 4, pp. 743-761, 2011 頁。 0.43
[21] P. Doll´ar, C. Wojek, B. Schiele, and P. Perona, “Pedestrian detection: A benchmark,” in 2009 IEEE Conference on Computer Vision and Pattern Recognition. 21] p. doll ́ar, c. wojek, b. schiele, p. perona, “pedestrian detection: a benchmark” 2009 ieee conference on computer vision and pattern recognitionで発表された。 0.78
IEEE, 2009, pp. 304–311. IEEE、2009年、p.304-311。 0.71
[22] S. Zhang, R. Benenson, M. Omran, J. Hosang, and B. Schiele, “How far are we from solving pedestrian detection?” in Proceedings of the iEEE conference on computer vision and pattern recognition, 2016, pp. 1259–1267. S. Zhang氏、R. Benenson氏、M. Omran氏、J. Hosang氏、B. Schiele氏は、コンピュータビジョンとパターン認識に関するiEEEカンファレンスProceedings of the iEEE Conference on computer vision and Pattern Recognition, 2016 pp. 1259–1267の中で、"歩行者検出の解決はどこまで進んでいるのか?
訳抜け防止モード: [22]S.張、R.ベネンソン、M.オムラン J. Hosang と B. Schiele 氏は,“歩行者検出の解決にはどこまで時間がかかるのか? in Proceedings of the iEEE conference on computer vision and pattern recognition 2016 , pp . 1259–1267 .
0.82
[23] Y. Pang, J. Cao, Y. Li, J. Xie, H. Sun, and J. Gong, “Tju-dhd: A diverse high-resolution dataset for object detection,” IEEE Transactions on Image Processing, vol. [23] Y. Pang, J. Cao, Y. Li, J. Xie, H. Sun, J. Gong, “Tju-dhd: オブジェクト検出のための多種多様な高解像度データセット”, IEEE Transactions on Image Processing, Vol. 0.88
30, pp. 207–219, 2020. pp. 207-219, 2020。 0.67
[24] S. Shao, Z. Zhao, B. Li, T. Xiao, G. Yu, X. Zhang, and J. Sun, “Crowdhuman: A benchmark for detecting human in a crowd,” arXiv preprint arXiv:1805.00123, 2018. S. Shao, Z. Zhao, B. Li, T. Xiao, G. Yu, X. Zhang, J. Sun, “Crowd Human: A benchmark for detect a crowd in a crowd”, arXiv preprint arXiv:1805.00123, 2018.
訳抜け防止モード: [24]S.Shao,Z.Zhao,B.Li, T.Xiao, G. Yu, X. Zhang, J. Sun 「群衆人間 : 群衆の中の人間を検出するためのベンチマーク」 arXiv preprint arXiv:1805.00123 , 2018
0.85
[25] C. Chi, S. Zhang, J. Xing, Z. Lei, S. Z. Li, and X. Zou, “Pedhunter: Occlusion robust pedestrian detector in crowded scenes,” in Proceedings of the AAAI Conference on Artificial Intelligence, vol. 25] c. chi, s. zhang, j. xing, z. lei, s. z. li, x. zou, “pedhunter: occlusion robust pedestrian detector in crowded scene” in the aaai conference on artificial intelligence, vol. の議事録に書かれている。 0.66
34, no. 07, 2020, pp. 10 639–10 646. 34, No. 07, 2020, pp. 10 639–10 646。 0.47
[26] X. Li, L. Li, F. Flohr, J. Wang, H. Xiong, M. Bernhard, S. Pan, D. M. Gavrila, and K. Li, “A unified framework for concurrent pedestrian and cyclist detection,” IEEE transactions on intelligent transportation systems, vol. [26] X. Li, L. Li, F. Flohr, J. Wang, H. Xiong, M. Bernhard, S. Pan, D. M. Gavrila, K. Li, “同時歩行者とサイクリスト検出のための統一的なフレームワーク” IEEEのインテリジェント交通システムに関するトランザクション。 0.86
18, no. 2, pp. 269–281, 2016. 18, no. 2, pp. 269-281, 2016年。 0.85
[27] S. Hwang, J. Park, N. Kim, Y. Choi, and I. So Kweon, “Multispectral pedestrian detection: Benchmark dataset and baseline,” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015, pp. 1037–1045. S. Hwang, J. Park, N. Kim, Y. Choi, I. So Kweon, “Multispectral pedestrian detection: Benchmark dataset and baseline” in Proceedings of the IEEE conference on computer vision and pattern recognition, 2015 pp. 1037–1045。
訳抜け防止モード: [27 ]S.Hwang, J. Park, N. Kim, Y. Choi, I. So Kweon, “multispectral pedestrian detection : Benchmark dataset and baseline” in Proceedings of the IEEE conference on computer vision and pattern recognition 2015 , pp . 1037–1045 .
0.43
[28] S. Walk, N. Majer, K. Schindler, and B. Schiele, “New features and insights for pedestrian detection,” in 2010 IEEE Computer society conference on computer vision and pattern recognition. [28] s. walk, n. majer, k. schindler, b. schiele, “new features and insights for pedestrian detection” 2010 ieee computer society conference on computer vision and pattern recognitionで発表された。
訳抜け防止モード: 28 ]ウォーク n. マージャー k. シンドラー そしてb. schiele, “歩行者検出のための新機能と洞察” 2010年、ieee computer society conference on computer vision and pattern recognition を開催。
0.74
IEEE, 2010, pp. 1030–1037. IEEE, 2010, pp. 1030-1037。 0.81
[29] R. N. Rajaram, E. Ohn-Bar, and M. M. Trivedi, “An exploration of why and when pedestrian detection fails,” in 2015 IEEE 18th International Conference on Intelligent Transportation Systems. 2015年のIEEE 18th International Conference on Intelligent Transportation Systemsで、R. N. Rajaram、E. Ohn-Bar、M. M. Trivediは、“なぜ歩行者検出が失敗したのか、いつ失敗したのかを調査”した。
訳抜け防止モード: [29 ] R. N. Rajaram, E. Ohn - Bar, とM.M. Trivediは語る。 歩行者検出は失敗する。 2015年IEEE 18th International Conference on Intelligent Transportation Systems に参加。
0.80
IEEE, 2015, pp. 2335–2340. IEEE, 2015, pp. 2335–2340。 0.46
[30] J. Mao, T. Xiao, Y. Jiang, and Z. Cao, “What can help pedestrian detection?” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, 2017, pp. 3127–3136. [30] j. mao, t. xiao, y. jiang, z. cao, “what can help pedestrian detection?” in the proceedings of the ieee conference on computer vision and pattern recognition, 2017 pp. 3127-3136. (英語)
訳抜け防止モード: 【30 ]j.mao,t.xiao,y.jiang , ieee conference on computer visionの議事録で、z. cao氏は「歩行者検出に何が役立つのか? and pattern recognition , 2017 , pp . 3127-3136 。
0.67
[31] S. Zhang, R. Benenson, M. Omran, J. Hosang, and B. Schiele, “Towards reaching human performance in pedestrian detection,” IEEE transactions on pattern analysis and machine intelligence, vol. s. zhang氏、r. benenson氏、m. omran氏、j. hosang氏、b. schiele氏、"歩行者検出における人間のパフォーマンス向上に向けて"、ieee transactions on pattern analysis and machine intelligence, vol.)。
訳抜け防止モード: 31 ]s. zhang, r. benenson, m. omran, j. hosang氏、b. schiele氏、"歩行者検出におけるヒューマンパフォーマンスの実現に向けて" ieee transactions on pattern analysis and machine intelligence, vol。
0.75
40, no. 4, pp. 973– 986, 2017. 40, no. 4, pp. 973–986, 2017 頁。 0.43
[32] N. Ragesh and R. Rajesh, “Pedestrian detection in automotive safety: understanding state-of-the-art,” IEEE Access, vol. N. RageshとR. Rajeshは、“歩行者による自動車安全の検知:最先端技術を理解する”、とIEEE Accessは述べている。 0.61
7, pp. 47 864–47 890, 2019. 7, pp. 47 864–47 890, 2019. 0.50
[33] J. Cao, Y. Pang, J. Han, B. Gao, and X. Li, “Taking a look at smallscale pedestrians and occluded pedestrians,” IEEE transactions on image processing, vol. ieeeは、画像処理に関して、j. cao, y. pang, j. han, b. gao, x. li, “小規模の歩行者と閉塞された歩行者を見てみよう”。
訳抜け防止モード: [33 ]J. Cao, Y. Pang, J. Han, B. Gao, X. Li,” 画像処理に関するIEEEのトランザクションは、小さな歩行者や人里離れた歩行者を見てみよう。
0.80
29, pp. 3143–3152, 2019. 29p.3143-3152、2019年。 0.70
[34] T. Toprak, B. A. Can, M. Ozcelikors, S. B. Tekin, and M. A. Selver, “Limitations of feature-classifier strategies on pedestrian detection for self driving cars,” in 2020 International Conference on Electrical, Communication, and Computer Engineering (ICECCE). [34] t. toprak, b. a. can, m. ozcelikors, s. b. tekin, m. a. selver, "limitations of feature-classifier strategies on pedestrian detection for self driving cars", 2020 international conference on electrical, communication, and computer engineering (icecce) で発表された。
訳抜け防止モード: [34 ]T. Toprak, B. A. Can, M. Ozcelikors, S.B.テキンとM.A.セルバーは「機能制限 - 自動運転車の歩行者検出における分類方法」と評した。 2020年 電気・通信・コンピュータ工学国際会議(ICECCE)
0.78
IEEE, 2020, pp. 1–6. 橋本、2020年、p.1-6。 0.37
[35] I. Hasan, S. Liao, J. Li, S. U. Akram, and L. Shao, “Generalizable pedestrian detection: The elephant in the room,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021, pp. 11 328–11 337. [35]i. hasan, s. liao, j. li, s. u. akram, l. shao, "generalizable pedestrian detection: the elephant in the room", in proceedings of the ieee/cvf conference on computer vision and pattern recognition, 2021, pp. 11 328–11 337。
訳抜け防止モード: [35 ]i. hasan, s. liao, j. li, s. u. akram, l. shao, "generalizable pedestrian detection: the elephant in the room" ieee/cvf conference on computer vision の開催にあたって そしてパターン認識, 2021, pp. 11 328–11 337。
0.76
[36] H. Chandel and S. Vatta, “Occlusion detection and handling: a review,” International Journal of Computer Applications, vol. [36] h. chandel と s. vatta, “occlusion detection and handling: a review”, international journal of computer applications, vol. (英語)
訳抜け防止モード: 36 ] h. chandel と s. vatta 「咬合検出とハンドリング : レビュー」 international journal of computer applications, vol. (英語)
0.58
120, no. 10, 2015. 120, no. 10 2015年。 0.78
[37] K. Saleh, S. Sz´en´asi, and Z. V´amossy, “Occlusion handling in generic object detection: A review,” in 2021 IEEE 19th World Symposium on K. Saleh, S. Sz ́en ́asi, Z. V ́amossy, “Occlusion handle in generic object detection: A review” in 2021 IEEE 19th World Symposium on 2021
訳抜け防止モード: [37 ] K. Saleh, S. Sz ́en ́asi, Z. V ́amossy. 汎用物体検出におけるオクルージョンハンドリング : 2021年IEEE 19th World Symposiumのレビュー
0.80
英語(論文から抽出)日本語訳スコア
Applied Machine Intelligence and Informatics (SAMI). Applied Machine Intelligence and Informatics (SAMI) の略。 0.82
pp. 000 477–000 484. pp. 000 477–000 484。 0.43
[38] S. Gilroy, M. Glavin, E. Jones, and D. Mullins, “An objective method for pedestrian occlusion level classification,” arXiv preprint arXiv:2205.05412, 2022. S. Gilroy, M. Glavin, E. Jones, D. Mullins, “An objective method for pedestrian occlusion level classification, arXiv preprint arXiv:2205.05412, 2022。
訳抜け防止モード: [38 ] S. Gilroy, M. Glavin, E. Jones, とD. Mullins氏は語る。 arXiv preprint arXiv:2205.05412 , 2022
0.64
[39] A. Wallace, “The exposure treatment of burns,” The Lancet, vol. The exposure treatment of burns, The Lancet, vol.[39] A. Wallace, “The exposure treatment of burns”. The Lancet. 0.36
257, no. 6653, pp. 501–504, 1951. 257, 6653, pp. 501–504, 1951。 0.41
IEEE, 2021, IEEE、2021年。 0.77
8 [40] W. -S. 8 [40]w。 -S。 0.39
Zheng, X. Li, T. Xiang, S. Liao, J. Lai, and S. Gong, “Partial the IEEE International Zheng, X. Li, T. Xiang, S. Liao, J. Lai, S. Gong, “Partial the IEEE International”
訳抜け防止モード: Zheng, X. Li, T. Xiang, S. Liao, J. Lai IEEE Internationalの一部分」とS.Gongは語る
0.84
person re-identification,” in Proceedings of Conference on Computer Vision, 2015, pp. 4678–4686. 人物再同定 (person re-identification)&q uot; in proceedings of conference on computer vision, 2015 pp. 4678-4686。 0.35
[41] J. Zhuo, Z. Chen, J. Lai, and G. Wang, “Occluded person reidentification,” in 2018 IEEE International Conference on Multimedia and Expo (ICME). 関連スポンサーコンテンツ [41] j. zhuo, z. chen, j. lai, g. wang, “occluded person reidentification” 2018 ieee international conference on multimedia and expo (icme)
訳抜け防止モード: [41 ]J. Zhuo, Z. Chen, J. Lai 2018年のIEEE International Conference on Multimedia and Expo (ICME)で、G. Wang氏は次のように述べている。
0.80
IEEE, 2018, pp. 1–6. 藤田、2018年、p.1-6。 0.26
[42] T. -Y. [42]T。 -y。 0.36
Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Doll´ar, and C. L. Zitnick, “Microsoft coco: Common objects in context,” in European conference on computer vision. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Doll ́ar, and C. L. Zitnick, “Microsoft coco: Common Object in context” – 欧州のコンピュータビジョンに関するカンファレンス。 0.90
Springer, 2014, pp. 740–755. 2014年、p.740-755。 0.54
[43] L. Chen, S. Lin, X. Lu, D. Cao, H. Wu, C. Guo, C. Liu, and F. [43]L. Chen,S. Lin,X. Lu,D. Cao,H. Wu,C. Guo,C. Liu,F 0.46
-Y. Wang, “Deep neural network based vehicle and pedestrian detection for autonomous driving: A survey,” IEEE Transactions on Intelligent Transportation Systems, 2021. -y。 wang, “deep neural network based vehicle and pedestrian detection for autonomous driving: a survey” ieee transactions on intelligent transportation systems, 2021”(英語)
訳抜け防止モード: -y。 Wang, “ディープニューラルネットワークによる自動運転車と歩行者検出 : 調査” IEEE Transactions on Intelligent Transportation Systems, 2021
0.54
[44] B. E. Moore [44]B.E.ムーア 0.37
J. Corso, https://github.com/v oxel51/fiftyone, 2020. J. Corso, https://github.com/v oxel51/fiftyone, 2020 0.31
and J. “Fiftyone,” GitHub. そして J。 GitHubは“Fiftyone”だ。 0.62
Note: 備考 0.18
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。