論文の概要、ライセンス

# (参考訳) 歩行者咬合レベル分類のための客観的手法 [全文訳有]

An Objective Method for Pedestrian Occlusion Level Classification ( http://arxiv.org/abs/2205.05412v1 )

ライセンス: CC BY 4.0
Shane Gilroy, Martin Glavin, Edward Jones and Darragh Mullins(参考訳) 歩行者検出は、自動運転車の運転支援システムの最も安全性に重要な特徴の一つである。 最も複雑な検出課題の1つは部分的閉塞であり、対象物体が他の前景物体による妨害によってセンサーに部分的にしか利用できない。 現在の歩行者検出ベンチマークでは、これらのシナリオにおけるアルゴリズム性能を評価するために部分閉塞のアノテーションを提供しているが、それぞれのベンチマークは、閉塞の発生と重症度の定義において大きく異なる。 加えて、現在の閉塞レベルアノテーション法は、人間のアノテーションによる高い主観性を含む。 これは、どのベンチマークが使用されるかによって、部分的に閉塞された歩行者に対するアルゴリズムの検出性能が不正確または一貫性のない報告につながる可能性がある。 本研究では,歩行者の咬合レベル分類のための新しい客観的手法を提案する。 閉塞レベル分類は、視認可能な歩行者キーポイントの識別と、新しい2次元体表面積推定法を用いて達成される。 実験の結果,提案手法は画像中の歩行者のピクセル単位の咬合レベルを反映しており,自己閉塞,切断,閉塞間歩行者などのエッジケースを含むあらゆる形態の咬合に有効であることがわかった。

Pedestrian detection is among the most safety-critical features of driver assistance systems for autonomous vehicles. One of the most complex detection challenges is that of partial occlusion, where a target object is only partially available to the sensor due to obstruction by another foreground object. A number of current pedestrian detection benchmarks provide annotation for partial occlusion to assess algorithm performance in these scenarios, however each benchmark varies greatly in their definition of the occurrence and severity of occlusion. In addition, current occlusion level annotation methods contain a high degree of subjectivity by the human annotator. This can lead to inaccurate or inconsistent reporting of an algorithm's detection performance for partially occluded pedestrians, depending on which benchmark is used. This research presents a novel, objective method for pedestrian occlusion level classification for ground truth annotation. Occlusion level classification is achieved through the identification of visible pedestrian keypoints and through the use of a novel, effective method of 2D body surface area estimation. Experimental results demonstrate that the proposed method reflects the pixel-wise occlusion level of pedestrians in images and is effective for all forms of occlusion, including challenging edge cases such as self-occlusion, truncation and inter-occluding pedestrians.
公開日: Wed, 11 May 2022 11:27:41 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
An Objective Method for Pedestrian Occlusion Level Classification 歩行者咬合レベル分類のための客観的手法 0.66
Shane Gilroy a,b, Martin Glavina, Edward Jonesa and Darragh Mullinsa Shane Gilroy a,b, Martin Glavina, Edward Jonesa, Darragh Mullinsa 0.41
aNational University of Ireland, Galway, Ireland アイルランドのゴールウェイにあるアイルランド国立大学 0.79
bAtlantic Technological University, Ireland bAtlantic Technological University (アイルランド) 0.92
Abstract Pedestrian detection is among the most safety-critical features of driver assistance systems for autonomous vehicles. 概要 歩行者検出は、自動運転車の運転支援システムの最も安全性に重要な特徴の一つである。 0.50
One of the most complex detection challenges is that of partial occlusion, where a target object is only partially available to the sensor due to obstruction by another foreground object. 最も複雑な検出課題の1つは部分的閉塞であり、対象物体が他の前景物体による妨害によってセンサーに部分的にしか利用できない。 0.86
A number of current pedestrian detection benchmarks provide annotation for partial occlusion to assess algorithm performance in these scenarios, however each benchmark varies greatly in their definition of the occurrence and severity of occlusion. 現在の歩行者検出ベンチマークでは、これらのシナリオにおけるアルゴリズム性能を評価するために部分閉塞のアノテーションを提供しているが、それぞれのベンチマークは、閉塞の発生と重症度の定義において大きく異なる。
訳抜け防止モード: 最近の歩行者検出ベンチマークは部分閉塞に対するアノテーションを提供する これらのシナリオにおけるアルゴリズムの性能を評価するために しかし、それぞれのベンチマークは咬合の発生と重症度の定義で大きく異なる。
0.66
In addition, current occlusion level annotation methods contain a high degree of subjectivity by the human annotator. 加えて、現在の閉塞レベルアノテーション法は、人間のアノテーションによる高い主観性を含む。 0.70
This can lead to inaccurate or inconsistent reporting of an algorithm’s detection performance for partially occluded pedestrians, depending on which benchmark is used. これは、どのベンチマークが使われているかによって、部分的に閉塞された歩行者に対するアルゴリズムの検出性能が不正確または一貫性のない報告につながる可能性がある。 0.49
This research presents a novel, objective method for pedestrian occlusion level classification for ground truth annotation. 本研究では,歩行者の咬合レベル分類のための新しい客観的手法を提案する。 0.62
Occlusion level classification is achieved through the identification of visible pedestrian keypoints and through the use of a novel, effective method of 2D body surface area estimation. 閉塞レベル分類は、視認可能な歩行者キーポイントの識別と、新しい2次元体表面積推定法を用いて達成される。
訳抜け防止モード: 目に見える歩行者キーポイントの同定による咬合レベル分類 また, 2次元体表面積推定法を考案し, 有効に活用した。
0.69
Experimental results demonstrate that the proposed method reflects the pixel-wise occlusion level of pedestrians in images and is effective for all forms of occlusion, including challenging edge cases such as self-occlusion, truncation and interoccluding pedestrians. 実験の結果,提案手法は画像中の歩行者のピクセル単位の咬合レベルを反映しており,自閉,禁酒,閉塞歩行者などのエッジケースを含むあらゆる形態の咬合に有効であることがわかった。 0.67
1. Introduction Robust pedestrian detection is one of the most safetycritical features of driver assistance systems and autonomous vehicles. はじめに ロバストな歩行者検出は、運転支援システムと自動運転車の最も安全上重要な特徴の1つである。 0.50
Pedestrian detection is particularly challenging due to the deformable nature and irregular profile of the human body in motion and the inconsistency of color information due to clothing, that can enhance or camouflage any part of a pedestrian. 歩行者検出は、人体の運動における変形可能な性質と不規則なプロファイルと、歩行者のあらゆる部分を強化するかカモフラージュすることができる衣服による色情報の矛盾により、特に困難である。 0.73
Pedestrian detection systems have improved significantly in recent years with the proliferation of deep learning based solutions and the availability of larger and more diverse datasets. 近年、ディープラーニングベースのソリューションの普及と、より大規模で多様なデータセットの利用により、歩行者検出システムは大幅に改善されている。
訳抜け防止モード: 近年,深層学習型ソリューションの普及に伴い歩行者検出システムが大幅に改善されている。 そして、大きくて多様なデータセットが利用可能です。
0.67
Despite this, many challenges still exist before we reach the detec- それにもかかわらず、デテクトに到達する前にはまだ多くの課題が残っている。 0.41
tion capabilities required for safe autonomous driving. 安全な自動運転に必要な運転能力。 0.70
One of the most complex scenarios is that of partial occlusion, where a target object is only partially available to the sensor due to obstruction by another foreground object. 最も複雑なシナリオの1つは部分閉塞であり、ターゲットオブジェクトは、他の前景オブジェクトによる障害物のために、センサーに部分的にしか利用できない。 0.76
The frequency and variety of occlusion in the automotive environment is substantial and is impacted by both natural and manmade infrastructure as well as the presence of other road users [1][2][3]. 自動車環境における閉塞の頻度と多様性は、自然と人工の両方のインフラや、他の道路利用者 [1][2][3] の存在によって大きく影響される。 0.76
Pedestrians can be occluded by static or dynamic objects, may inter-occlude (occlude one another) such as in crowds, and self-occlude - where parts of a pedestrian overlap. 歩行者は静的な物体や動的物体によって遮蔽され、人混みや歩行者の一部が重なり合うような(互いに遮蔽される)。 0.55
State of the art pedestrian detection solutions claim a detection performance of approximately 65%-75% of partially and heavily occluded pedestrians respectively using current benchmarks [4][5][6][7]. アート歩行者検出ソリューションの現状は、それぞれ、現在のベンチマーク[4][5][6][7]を使用して、部分的および重閉塞歩行者の約65%-75%の検出性能を主張する。 0.65
However, the definition of the occurrence and severity of occlusion varies greatly, and a high degree of subjectivity is used to categorize pedestrian occlusion level in each benchmark as shown in Table 1. しかし、オクルージョンの発生と重症度の定義は大きく異なり、表1に示すように、各ベンチマークにおける歩行者のオクルージョンレベルを高い主観性で分類する。 0.69
In addition to this, occurrences of self occlusion, where one part of the body occludes another, has typically been overlooked entirely when categorizing occlusion level. これに加えて、身体の一部が他の部位を閉塞する自己閉塞の発生は、通常、咬合レベルを分類する際に完全に見過ごされている。 0.67
This can lead to inaccurate or inconsistent reporting of a pedestrian detection algorithm’s performance, depending on which dataset is used to verify detection performance [4][8]. これは、どのデータセットが検出性能の検証に使われているかによって、歩行者検出アルゴリズムのパフォーマンスを不正確または一貫性のない報告につながります [4][8]。 0.76
In order to address this issue, a universal metric and an objective, repeatable method of occlusion level classification is required for ground truth annotation so that algorithms can be evaluated and compared on an equal scale. この問題に対処するために, アルゴリズムを等スケールで評価・比較できるように, 基底的真理のアノテーションには, 普遍的計量法と, 客観的かつ反復可能な咬合レベル分類法が必要となる。 0.82
This research proposes a novel, objective and consistent method for pedestrian occlusion level classification for ground truth annotation of partially occluded pedestrians. 本研究は,部分閉塞歩行者の地盤真理アノテーションに対する歩行者咬合レベル分類のための,新規で客観的かつ一貫性のある方法を提案する。 0.62
The proposed method more accurately represents the pixelwise occlusion level than the current state-of-the-art and works for all forms of occlusion including challenging edge cases such as self-occlusion, inter-occluding pedestrians and truncation. 提案手法は, 現状よりも画素毎の咬合レベルをより正確に表現し, 自閉, 横断歩行者, 遮断などのエッジケースを含むあらゆる形態の咬合に対して有効である。 0.66
The contributions of this research are threefold: この研究の貢献は3つあります。 0.76
1. A novel, objective method for pedestrian occlusion level classification for ground truth annotation is presented. 1. 地中真実アノテーションのための歩行者閉塞レベル分類のための新しい客観的手法を提案する。 0.67
2. A novel method for estimating the visible 2D body surface area of pedestrians in images. 2 画像中の歩行者の目に見える2次元体表面積を推定する新しい方法 0.69
3. The proposed method is the first occlusion level classifier to infer the level of pedes- 3. 提案手法は, ペデスのレベルを推定する最初の咬合レベル分類器である。 0.79
1 1 0.43
英語(論文から抽出)日本語訳スコア
Table 1. Categories of occlusion levels by dataset. 表1。 データセットによる閉塞レベルのカテゴリ。 0.74
Dataset Occlusion Level データセット 閉塞レベル 0.66
Low Partial <40% 低い 一部 <40% 0.55
40-80% Heavy >80% 40-80% 重い >80% 0.47
EuroCity Persons [9] CityPersons [10] ユーロシティ[9]シティパーソン[10] 0.71
KITTI [11] Caltech Pedestrian [12] Multispectral Pedestrian [13], OVIS [14] TJU-DHD [15] Daimler Tsinghua [16] キッティ[11] Caltech Pedestrian [12] Multispectral Pedestrian [13], OVIS [14] TJU-DHD [15] Daimler Tsinghua [16] 0.50
Li et al 2017 [17] Li et al 2017[17] 0.41
SAIL-VOS [18] SAIL-VOS [18] 0.42
trian self-occlusion. trian self-occlusion 0.42
2. Related Work - ”Fully Visible” 2.関連業務 - 完全に見える」。 0.57
<35% ”Partially Occluded” <35% “Partially Occluded” 0.42
35-75% ”Difficult to See” 35-75%の「見づらい」 0.84
- - - <10% - - - <10% 0.43
”Fully Visible” - 完全に見える」。 - 0.49
1-35% 35-80% 1-35% 35-80% 0.35
≤50% ≤35% 10-40% ≤50% ≤35% 10-40% 0.37
1-40% 1-25% 1-40% 1-25% 0.35
>50% >35% 41-80% >50% >35% 41-80% 0.40
41-80% >25-75% 41-80% >25-75% 0.37
This section provides an overview of current occlusion level classification methods for pedestrian detection, pedestrian occlusion level analysis for flood level assessment and commonly used methods for estimating total body surface area. 本論では, 歩行者検出のための現在の咬合レベル分類法, 洪水レベル評価のための歩行者咬合レベル分析法, および全身体表面積推定法について概説する。 0.75
A number of publicly available datasets provide annotation of the level of pedestrian occlusion in the automotive environment. 多くの公開データセットは、自動車環境における歩行者閉塞のレベルに関する注釈を提供する。 0.70
Table 1 provides an overview of the categories used to define the severity of occlusion in current popular datasets. 表1は、現在の一般的なデータセットにおける咬合の重症度を定義するために使用されるカテゴリの概要を提供する。
訳抜け防止モード: 表1は、使用されるカテゴリの概要を示します 現在のポピュラーデータセットにおける咬合の重大度を定義する。
0.67
Analysis of current benchmarks demonstrate the range of inconsistency and subjectivity in the definition of low, partial and heavy occlusion. 現在のベンチマークの分析は、低、部分的、重閉塞の定義における矛盾と主観性の範囲を示している。 0.56
The Eurocity Persons Dataset [9] categorizes occlusion into three distinct levels: low occlusion (10%-40%), moderate occlusion (40%-80%), and strong occlusion (larger than 80%). ユーロシティー・パーソナリティ・データセット[9]は、低閉塞(10%-40%)、中程度の閉塞(40%-80%)、強い閉塞(80%以上)の3つの異なるレベルに分類している。 0.63
Classification is carried out by human annotators. 分類は人間のアノテーションによって行われる。 0.68
The full extent of the occluded pedestrian is estimated, and the approximate level of occlusion is then estimated to be within one of the three defined categories. 閉鎖された歩行者の完全な範囲を推定し、およその閉塞レベルを3つの定義されたカテゴリーのうちの1つに見積もる。 0.76
This process is also used to classify the level of truncation of pedestrians near the image border. このプロセスは、画像境界付近の歩行者の遮断レベルを分類するためにも用いられる。 0.79
A similar approach is undertaken in the Caltech Pedestrian [12][19], TJU-DHD-pedestrian [15], CrowdHuman [20] and PedHunter [21] datasets in which pedestrians are annotated with two bounding boxes that denote the visible and full pedestrian extent. Caltech Pedestrian [12][19], TJU-DHD-pedestrian [15], CrowdHuman [20], PedHunter [21]データセットでは、歩行者が目に見える範囲と完全な歩行者範囲を示す2つの境界ボックスでアノテートされる。 0.73
In the case of occluded pedestrians, the location of hidden parts of the full pedestrian were estimated by the human annotator in order to calculate the occlusion ratio. 閉塞歩行者の場合, 咬合率を算出するために, 人間の注釈により全歩行者の隠れ部分の位置を推定した。 0.72
Further analysis of the Caltech Pedestrian [12] dataset determined that the probabil- Caltech Pedestrian [12] データセットのさらなる解析により、確率が決定される 0.84
ity of occlusion in the automotive environment is not uniform, but rather has a strong bias for the lower portion of the pedestrian to be occluded and for the top portion to be visible. 自動車環境における閉塞度は均一ではなく、歩行者の下部が閉塞され、上部が視認されるような強いバイアスを有する。 0.55
Classification of occluded pedestrians in the CityPersons dataset [10] is achieved by drawing a line from the top of the head to the middle of the two feet of the occluded pedestrian. 街人データセット[10]におけるオクルード歩行者の分類は、オクルード歩行者の頭頂部から2フィートの中央まで線を引くことにより達成される。 0.75
Human annotators are required to estimate the location of the head and feet if these are not visible. 人間のアノテーションは、それが見えない場合は頭と足の位置を推定する必要がある。 0.68
A bounding box (“BB − f ull”) is then generated for the full pedestrian area using a fixed aspect ratio of 0.41(width/height). そして、固定アスペクト比0.41(幅/高さ)を用いて、全歩行者領域に対してバウンディングボックス(BB−full)を生成する。 0.75
A visible pedestrian area bounding box (“BB−vis”) is also annotated and the occlusion ratio is calculated as Area(BB − vis)/Area(BB − f ull). また、目に見える歩行者エリアバウンディングボックス(BB−vis)も注釈し、閉塞比をエリア(BB−vis)/Area(BB−full)とする。 0.63
These estimates of occlusion level are then categorized into two levels in the Citypersons benchmark, Reasonable (<=35% occluded) and Heavy Occlusion (35%-75%). これらのオクルージョンレベルの評価は、Citypersonsベンチマークの2つのレベル、Reasonable (<=35% 閉塞)とHeaved Occlusion (35%-75%)に分類される。 0.74
A more semantic approach to determining the occlusion level was taken in the Kitti Vision Benchmark [11], where human annotators were simply asked to mark each bounding box as “visible”, “semi-occluded”, “fully-occluded” or “truncated”. Kitti Vision Benchmark [11]では、人間のアノテータがそれぞれのバウンディングボックスを“可視”、”半閉鎖”、”完全閉塞”、あるいは“切り捨て”とマークするように求められた。
訳抜け防止モード: Kitti Vision Benchmark [11 ]では、オクルージョンレベルを決定するためのよりセマンティックなアプローチが取り上げられた。 そこでは、人間のアノテータが、各バウンディングボックスを“可視性”とマークするように要求された。 “ semi-occluded ”, “ complete-occluded ” あるいは “ truncated ”。
0.66
A similar approach was used in the Multispectral Pedestrian Dataset [13] where pedestrians ”occluded to some extent up to one half” are tagged as partial occlusion; and those whose contour is ”mostly occluded” were tagged as heavy occlusion during ground truth annotation. 同様のアプローチがMultispectral Pedestrian Dataset[13]で採用され、歩行者が「ある程度の閉塞」を部分閉塞としてタグ付けし、輪郭が「ほとんど閉塞」を接地真実のアノテーション中に重閉塞としてタグ付けした。 0.65
Occluded Video Instance Segmentation (OVIS) [14] estimates the degree of occlusion by calculating the ratio of intersecting areas of overlapping bounding boxes to the total area of the respective bounding boxes. OVIS (Occluded Video Instance Segmentation) [14] は、重なり合う有界箱の交差領域と各有界箱の総面積との比を計算することにより、閉塞度を推定する。 0.80
The authors acknowledge that although this proposed “Bounding Box Occlusion Rate” can be a rough indicator for the degree of occlusion, it can only reflect the occlusion between objects in a partial way and it does not accurately represent the pixel-wise occlusion level of the target objects. 著者らは、この提案された「バウンディングボックス閉塞率」は、オクルージョンの度合いの粗い指標であるが、部分的な方法でオブジェクト間のオクルージョンのみを反映することができ、ターゲットオブジェクトのピクセル単位のオクルージョンレベルを正確に表現することはできないことを認めている。
訳抜け防止モード: 著者は認めていますが 提案する「境界箱咬合率」は咬合率の粗い指標となりうる。 物体同士の閉塞を 部分的にしか反映できません そして、対象オブジェクトの賢明なオクルージョンレベルであるピクセルを正確に表現するものではない。
0.74
Chaudhary et al [22], propose a method of flood level classification from social media images based on the visibility of pedestrians in the image. chaudharyら[22]は,画像中の歩行者の視認性に基づいて,ソーシャルメディア画像からの洪水レベル分類手法を提案する。 0.80
In this research the average height of a human adult is estimated to be 170cm. この研究では、人間の成人の平均身長は170cmと推定されている。 0.79
The flood level classifier detects pedestrians in an image and estimates how much of the pedestrian is covered by flood water by vertically subdividing the pedestrian into 11 distinct levels. この洪水レベル分類器は、画像中の歩行者を検出し、歩行者を垂直に11のレベルに分割して、どの程度の歩行者が洪水水に覆われているかを推定する。 0.60
The highest level of the pedestrian occluded by the water indicates the flood height in the image location. 水に閉ざされた歩行者の最高レベルは、画像位置の洪水高を示している。 0.77
Feng et al [23] estimates flood level based on the relative height of specific human body parts which are perceived to be below the water line. feng et al [23]は,水線以下と認識される特定の人体部位の相対的高さに基づいて洪水レベルを推定した。 0.82
The water line in the image is hypothesized to be at the bottom line of the bounding box of a person. 画像中の水線は、人のバウンディングボックスの底線にあると仮定される。 0.55
A similar approach is taken by Quan et al [24] in which keypoint detection is correlated with a binary mask output of a pedestrian detector. 同様に、キーポイント検出を歩行者検出器のバイナリマスク出力と相関させるQuan et al[24]により、同様のアプローチをとる。 0.82
Analysis is then carried out to determine if keypoints which represent the hip or knees are outside of the detected binary mask area due to occlusion by flood water in the image, thereby indicating a relative flood そして、画像中の洪水水による閉塞により検出された二分マスク領域の外側に腰や膝を表すキーポイントがあるかどうかを判定し、相対的な洪水を示す。 0.80
英語(論文から抽出)日本語訳スコア
level. Noh et al [25] approximate the severity of pedestrian occlusion by dividing a pedestrian bounding box into a 6x3 section grid. レベル no et al [25] 歩行者境界ボックスを6×3のグリッドに分割することにより、歩行者閉塞の重症度を近似する。
訳抜け防止モード: レベル 能等[25]は歩行者咬合の重症度を近似する 歩行者境界ボックスを6x3区画グリッドに分割する。
0.57
Detection confidence values are calculated by applying a pedestrian classifier to grid section and a part confidence map is produced for the complete bounding box. グリッド部に歩行者分類器を適用して検出信頼値を算出し、完全有界ボックスに対して部分信頼マップを作成する。 0.71
Zhang et al [26] assess pedestrian occlusion level by segmenting pedestrians into 5 distinct sections. Zhang et al [26]は歩行者を5つのセクションに分割することで歩行者の閉塞レベルを評価する。 0.58
Each segment is assigned a fixed height and width relative to the total bounding box based on the empirical ratios identified in [27]. 各セグメントは[27]で特定された経験比に基づいて、総有界箱に対する固定高さと幅が割り当てられる。 0.75
ROI pooling is used to detect features within each section and visibility scores are calculated to indicate the relative pedestrian occlusion level. ROIプーリングは各セクション内の特徴を検出するために使用され、相対的な歩行者閉塞レベルを示すために可視スコアが算出される。 0.66
Wallace [28] proposed a method of classification of body surface area for the purposes of diagnosing the severity of burn damage of the average adult burn victim [29]. ウォレス[28]は、平均的な火傷被害者[29]の火傷損傷の重症度を診断するために、体表面積の分類法を提案した。 0.73
This method, known as the “Wallace Rule of Nines”, is commonly used by emergency medical providers and first responders to assess the total affected body surface area of burn patients [30][31]. この方法は「ナインのウォールス規則」と呼ばれ、救急医療機関や救急医療従事者によって、熱傷患者[30][31]の全身の身体表面積を評価するために一般的に使用されている。 0.68
The Rule of Nines estimates total body surface area by assigning percentages, in multiples of 9% to semantic body areas, based on the relative physical dimensions of the average adult. 9人のルールは、平均的な成人の相対的な身体的寸法に基づいて、意味的な身体領域に9%の倍数で体表面積を割り当てることで、体表面積を推定している。
訳抜け防止モード: 9のルールは、パーセンテージを割り当てて体表面積を推定する。 平均的な成人の相対的身体的寸法に基づいて, 意味的身体領域に対する9 %の倍数で測定した。
0.69
The head is estimated to be 9% of the total body surface area (4.5% for the front and 4.5% for the rear). 頭部は体表面積の9%(前方では4.5%、後方では4.5%)と推定されている。 0.68
The chest, abdomen, upper back and lower back are each assigned 9%. 胸部、腹部、上背中、下背中はそれぞれ9%に割り当てられている。 0.76
Each leg is assigned 18%, each arm is assigned a total of 9% and the groin is assigned the remaining 1%. 各脚は18%、各腕は9%、グラインは残りの1%に割り当てられる。
訳抜け防止モード: 各脚には18%が割り当てられている。 各腕には 合計 9 % が割り当てられる. 残りの1%はグロインが割り当てられます
0.79
Further research such as [30][32] validate the Rule of Nines for use in the assessment of total body surface area for the average adult, however, provide amendments to more accurately reflect body proportions in specific edge cases such as obese adults and infant children. 30][32]のようなさらなる研究は、平均的な成人の体表面積の評価に使用する9つのルールを検証するが、肥満者や幼児のような特定のエッジケースにおける体の割合をより正確に反映する修正を与える。 0.78
3. Methodology An objective method for occlusion level classification is proposed, which removes the subjectivity of the human annotator and more accurately reflects the pixel than the current state-of-the-art wise occlusion level [9][10][11][12][13][14][16]. 3.方法論 ヒトのアノテータの主観性を排除し、現在最先端のワイドオクルージョンレベル[9][10][11][12][13][14][16]よりも正確に画素を反映するオクルージョンレベルの客観的な分類法を提案する。 0.55
Improving on the concepts originally discussed in [33], occlusion level classification consists of 3 steps: 咬合レベル分類は, [33] で最初に論じられた概念を改良し, 以下の3段階からなる。 0.71
1. Keypoint detection is applied to the input image in order to identify the presence and visibility of specific semantic parts of each pedestrian instance. 1)入力画像にキーポイント検出を適用して,各歩行者の特定の意味部分の存在と可視性を識別する。 0.80
2. A visibility threshold is applied and cross-referenced with the pedestrian mask to determine which keypoints are occluded within the image. 2)画像内にどのキーポイントが隠されているかを決定するために,視界閾値を適用し,歩行者マスクと相互参照する。
訳抜け防止モード: 2. 歩行者マスクによる視界閾値の適用と交差 画像の中にどのキーポイントが隠されているか 判断します
0.80
3. Visible keypoints are then grouped into larger semantic parts and the total visible surface area is calculated using the 2D body surface area estimation method outlined in Section 3.2 and Figure 3. 可視なキーポイントをより大きな意味部分に分類し, 図3.2で概説した2次元体表面積推定法を用いて全視界面積を算出する。 0.85
1. The proposed method classifies occlusion level for all forms of pedestrian occlusion, including challenging edge cases such as self occlusion, inter-occluding pedestrians and truncation. 1) 提案手法は, 歩行者閉塞, 歩行者閉塞, トランケーションなどのエッジケースを含む, 歩行者閉塞のあらゆる形態に対する閉塞レベルを分類する。 0.63
An overview of the classification pipeline is shown in Figure 2 and qualitative examples of the classifier output 分類パイプラインの概要を図2に示し、分類器出力の定性例を示す。 0.76
Figure 1. 2D Body Surface Area. 図1に示す。 2次元体表面積。 0.59
for multiple scenarios can be seen in Figure 3. 複数のシナリオについては、図3に示します。 0.69
3.1. Occluded Keypoint Detection 3.1. occludedキーポイント検出 0.59
Keypoint detection is carried out by a Faster RCNN based keypoint detector using pretrained weights from Detectron2 [34]. 検出トロン2[34]から予め訓練された重みを用いて、より高速なrcnnベースのキーポイント検出器によりキーポイント検出を行う。 0.59
The model uses a ResNet-50-FPN backbone and is trained using the COCO keypoints dataset [35]. このモデルはResNet-50-FPNバックボーンを使用し、COCOキーポイントデータセット[35]を使用してトレーニングされる。 0.60
The keypoint detector outputs 17 keypoints on the human body in addition to a visibility score for each predicted keypoint. キーポイント検出器は、予測された各キーポイントに対する可視スコアに加えて、人体に17のキーポイントを出力する。 0.64
Predicted keypoints include shoulders, elbows, wrists, hips, knees and ankles as well as facial characteristics such as nose, eyes and ears. 予測されたキーポイントには、肩、肘、手首、腰、膝、足首、鼻、目、耳などの顔の特徴がある。 0.62
A two-step process is then applied to determine the visibility of keypoints in an image. 次に2段階のプロセスを適用し、画像中のキーポイントの可視性を決定する。 0.74
First, a threshold is applied to the keypoint visibility score returned from the keypoint detector. まず、キーポイント検出器から返されるキーポイント視認率にしきい値を適用する。 0.81
The coordinates of each visible keypoint are then cross-referenced with the pedestrian mask generated by MaskRCNN [36] to confirm the keypoint location is within the pedestrian mask region in the image. そして、各可視キーポイントの座標を maskrcnn[36] によって生成された歩行者マスクと交叉して、画像中の歩行者マスク領域内にあるキーポイントの位置を確認する。 0.71
This two-step process increases the identification of occluded keypoints in complex cases such as self-occlusion where the keypoint visibility score is low however the estimated keypoint location may be masked due to the occluding pedestrian region. この2段階のプロセスは、キーポイント可視性スコアが低い自己閉塞のような複雑な場合において、閉塞されたキーポイントの識別を増加させるが、その推定キーポイント位置は、閉塞歩行者領域により隠蔽される可能性がある。 0.58
The presence of specific grouped keypoints indicates the presence of semantic body parts as outlined in Table 2. 特定のグループ化キーポイントの存在は、表2に示す意味体部分の存在を示している。 0.75
3.2. 2D Body Surface Area Estimation 3.2. 2次元物体表面積の推定 0.53
The ”Wallace Rule of Nines” [28] is a time-tested method for determining total body surface area of the average adult. は、平均的な成人の体表面積を決定するための時間テストの方法である。
訳抜け防止モード: The ” Wallace Rule of Nines ” [ 28 ] is a time-test method for 平均的な成人の体表面面積を測ります
0.77
Although effective in the assessment of the body surface area of physical pedestrians, the Rule of Nines is not suitable for assessing the visible surface area of pedes- 物理歩行者の体表面積の評価には有効であるが, 可視面面積の評価には9種類のルールが適さない- 0.72
英語(論文から抽出)日本語訳スコア
Figure 2. Occlusion level classification overview. 図2。 咬合レベル分類の概要。 0.75
(a) Read input image (a)入力画像を読み取る 0.90
(b) Apply keypoint detection to each pedestrian instance b)各歩行者インスタンスにキーポイント検出を適用する 0.79
(c) Assess keypoint visibility to identify occluded keypoints c) 目立たないキーポイントを特定するためにキーポイントの可視性を評価する 0.53
(d) Correlate visible keypoints with pedestrian mask to confirm visibility (d)目に見えるキーポイントと歩行者用マスクを関連付けて視認性を確認する 0.55
(e) Calculate total visible surface area (e)全可視面面積を算出する 0.87
(f) Output occlusion level classification. (f)出力閉塞レベル分類 0.65
Figure 3. Qualitative validation results. 図3。 質的な検証結果。 0.73
Occlusion level is displayed below each image in addition to a list of occluded semantic parts. 閉塞レベルは、隠蔽された意味部品のリストに加えて、各画像の下に表示される。 0.63
Examples are shown for cases of inter-class occlusion, self occlusion and inter-occluding pedestrians. クラス間閉塞、自己閉塞、およびクラス間歩行者の場合の例を示す。 0.59
Images containing multiple pedestrian instances read from left to right. 複数の歩行者インスタンスを含む画像が左から右に読み込まれる。 0.62
All images are compiled from publicly available sources. すべての画像は、公開されているソースからコンパイルされる。 0.56
Related Keypoints Nose or Eyes or Ears ノーズ、アイズ、耳に関連するキーポイント 0.60
Table 2. Percentage of total body surface area (BSA) and related keypoints for each semantic body part. 表2。 全体表面積(BSA)および関連キーポイントのそれぞれの意味体部分に対する比率。 0.73
Body Part (% BSA) Head (9%) Upper Torso (18%) Upper Left Arm (4.5%) Lower Left Arm (4.5%) Upper Right Arm (4.5%) Lower Right Arm (4.5%) Lower Torso (18%) Upper Left Leg (9%) Lower Left Leg (9%) Upper Right Leg (9%) Lower Right Leg (9%) 体部 (% bsa) 頭部 (9%) 上半身(18%) 上半身 (4.5%) 上半身 (4.5%) 上半身 (4.5%) 上半身 (4.5%) 下半身 (4.5%) 上半身 (9%) 上半身 (9%) 上半身 (9%) 上右足 (9%) 下右足 (9%) 右足 (9%) 0.77
Left Hip and Right Hip Left Hip and Left Knee Left Knee and Left Ankle Right Hip and Right Knee Right Knee and Right Ankle 左腰・右腰・左膝左膝・左足首右腰・右膝右膝・右足首 0.43
Right Shoulder and Right Elbow Right Elbow and Right Wrist 右肩と右肘 右肘と右手首 0.27
Left Shoulder and Right Shoulder Left Shoulder and Left Elbow 左肩と右肩 左肩と左肘 0.36
Left Elbow and Left Wrist trians in 2D images due to the 3D nature of the human body. 左肘と左手 人体の3D特性による2D画像のトリアン。 0.59
An adapted version of the Rule of Nines is proposed for use in determining the visible body surface area of 2D pedestrian images for occlusion level classification. 咬合レベル分類のための2次元歩行者画像の可視体表面積を決定するために, ナインの法則を適応したバージョンが提案されている。 0.73
The original proportions of the Rule of Nines have been adjusted respectively to compensate for only one side of the body being visible at any one time, as in the case of 2D images. 9の規則の元の比率は、2d画像の場合のように、一度に見えている物体の片側のみを補償するためにそれぞれ調整されている。 0.68
The proposed method for 2D body surface area estimation is shown in Figure 2次元体表面積推定法の提案を図に示す 0.65
1. Detected keypoints are related to the semantic body areas in the method shown in Table 1. 検出キーポイントは表に示す方法における意味体領域と関連している 0.80
2. Examples of the classification output is shown in Figure 3. 2. 分類出力の例を図3に示す。 0.72
4. Validation Qualitative Validation was carried out by applying the proposed method to a wide range of images contain- 4.検証 提案手法を広範囲の画像に応用して定性検証を行った。 0.71
英語(論文から抽出)日本語訳スコア
ing various pedestrian poses, backgrounds and multiple forms of occlusion, including cases of self-occlusion, interoccluding pedestrians, and truncation. 歩行者のポーズ、背景、そして、自己閉塞の事例、歩行者の介在、切り離しなど、様々な形態の閉塞行為を行う。
訳抜け防止モード: 歩行者の様々なポーズ、背景、および複数の形態の咬合 自己閉塞、横断歩行者、切断などを含む。
0.68
Occlusion level and the occluded semantic parts of each pedestrian instance was deduced using the proposed occlusion level classification method. 提案したオクルージョンレベル分類法を用いて,各歩行者の閉塞レベルと隠蔽意味部分を推定した。 0.76
Human visual inspection was then used to verify the performance of the occlusion level classifier in each case. 次に、人間の視覚検査を用いて、各ケースにおける閉塞レベル分類器の性能を検証した。 0.69
A custom dataset of 320 images, compiled from multiple publicly available sources including [9][10][37][38], was used in this validation step to ensure a wide diversity of pedestrian occlusion scenarios. この検証ステップでは、[9][10][37][38]を含む複数の公開ソースからコンパイルされた320イメージのカスタムデータセットを使用して、歩行者のオクルージョンシナリオの幅広い多様性を確認した。 0.79
Examples of the qualitative validation are provided in Figure 3. 定性検証の例を図3に示します。 0.68
4.1. Quantitative Validation 4.1. 定量的検証 0.53
Quantitative validation was carried out by comparing the proposed method with the calculated pixel-wise occlusion level, derived using MaskRCNN [36], and the current state of the art as described in CityPersons [10] for both visible and progressively occluded pedestrians. maskrcnn [36] を用いて算出したピクセル単位のオクルージョンレベルと,可視性および進行性の両方の歩行者に対して都市人 [10] に記載された技術の現状を比較し,定量的な検証を行った。 0.75
In order to determine the pixel-wise occlusion, the total pixel area must be calculated for both the fully visible pedestrian and the same pedestrian under occlusion. 画素単位のオクルージョンを決定するためには、全画素面積を全可視歩行者と同一歩行者の両方に対して計算する必要がある。 0.71
To achieve this, a custom dataset of 200 images was created, including a wide range of occlusion scenarios and challenging pedestrian poses such as walking, running and cycling. これを実現するために、広範囲のオクルージョンシナリオや歩行、ランニング、サイクリングなどの歩行者ポーズを含む200の画像のカスタムデータセットが作成された。 0.78
MaskRCNN [36] was applied to a fully visible reference image and the masked pixel area (M askAreaf ull) was calculated for each pedestrian instance. MaskRCNN [36] を全視基準画像に適用し, 歩行者毎にマスク付き画素面積 (M askAreaf ull) を算出した。 0.72
Occlusions were then superimposed on the reference image and the remaining visible pedestrian pixel area (M askAreaocc) is calculated in order to determine the pixel-wise occlusion ratio, Eq 1. 次に、基準画像にオクルージョンを重畳し、残りの可視歩行者画素領域(m askareaocc)を算出して、画素毎のオクルージョン比eq1を求める。
訳抜け防止モード: 被写体は参照画像上に重畳される 残りの歩行者画素面積(M askAreaocc )は順に計算される 画素-ワイズオクルージョン比, Eq 1 を決定する。
0.72
Occpixel = Occpixel = 0.43
M askAreaocc M askAreaf ull M askAreaocc M askAreaf ull 0.43
(1) The proposed method was then compared with the pixelwise occlusion level and the method described in CityPersons [10] to determine the pixel-wise accuracy of the proposed occlusion level classifier. (1) 提案手法は, 提案する咬合レベル分類器の画素単位での精度を判定するために, 都市人 [10] に記載された画素毎の咬合レベルおよび方法と比較した。 0.57
More subjective occlusion level classification methods such as those used in [9][12][11][13] are omitted for the purposes of this testing. この試験のために、[9][12][11][13]で使用されるようなより主観的な閉塞レベル分類法を省略する。 0.65
A sample of the images used in these experiments can be seen in Figure 4. これらの実験で使用された画像のサンプルは図4で見ることができる。 0.84
Quantitative validation results are provided in Figure 5. 定量的検証結果は図5に示されています。 0.63
5. Discussion and Analysis An objective method for occlusion level classification is proposed. 5.議論と分析 咬合レベル分類のための客観的手法を提案する。 0.72
The qualitative validation results shown in Figure 3 demonstrate the capability of the proposed method for classifying occlusion level for all forms of occlusion, including challenging edge cases such as self-occlusion, truncation, and inter-occluding pedestrians. 図3に示す定性検証の結果は, 自閉, 遮断, 閉塞間歩行者等のエッジケースを含む, あらゆる形態の咬合に対して, 咬合レベルを分類する手法の有用性を示すものである。 0.71
By removing the subjectivity of a human annotator, the proposed method is ヒトアノテータの主観性を除去し,提案する手法を提案する。 0.71
Figure 4. Quantitative validation dataset sample images. 図4。 定量的検証データセット サンプル画像。 0.74
The custom dataset consists of 200 images covering a wide range of pedestrian poses and superimposed occlusions. カスタムデータセットは、広範囲の歩行者ポーズと重畳したオクルージョンをカバーする200の画像で構成されている。 0.60
All images are compiled from publicly available sources. すべての画像は、公開されているソースからコンパイルされる。 0.56
Figure 5. Quantitative Evaluation Results. 図5。 定量的評価結果。 0.57
Our proposed method is compared with the pixel-wise occlusion level as produced by MaskRCNN[36] and the current state-of-the-art as described in CityPersons[10] for a dataset of 200 images. 提案手法は,maskrcnn[36] が生成するピクセル単位の咬合レベルと,citypersons[10] が200画像のデータセットに対して示す現在の最先端の咬合レベルと比較した。 0.74
Results demonstrate that our method is a significant improvement over the state of the art when plotted against the pixel-wise occlusion level. 以上の結果から,本手法は画素単位の閉塞レベルに対してプロットした場合の技量よりも顕著な改善であることが示された。 0.57
more robust and repeatable than the current state-of-the-art and is suitable for the objective comparison of pedestrian detection algorithms, regardless of the benchmark used. 現在の最先端技術よりも頑丈で再現性が高く,使用するベンチマークに関わらず,歩行者検出アルゴリズムの客観的比較に適している。 0.68
Classification of pedestrian self-occlusion, heretofore ignored in the assessment of partially occluded pedestrians, may have a large impact on assessing the detectability of pedestrians using modern techniques. 部分閉塞歩行者の評価において無視される歩行者自閉の分類は,近代的手法を用いて歩行者の検出性を評価する上で大きな影響を与える可能性がある。 0.62
This is especially relevant in scenarios where detection confidence is linked to the presence of key salient features which may be selfoccluded by the target pedestrian in the image. これは特に、画像中のターゲット歩行者によって自己拘束される可能性のある重要な有能な特徴の存在に、検出の信頼性が関係しているシナリオに関係している。 0.62
More de- より多くのデ− 0.46
英語(論文から抽出)日本語訳スコア
Figure 6. Examples of challenging image frames, false negatives and false positives. 図6。 挑戦的な画像フレーム、偽陰性、偽陽性の例。 0.71
The top row provides examples of challenging detection scenarios and displays the occlusion level below each image. 最上列は、難解な検出シナリオの例を提供し、各画像の下の咬合レベルを表示する。 0.63
The middle row provides examples of false negatives and the bottom row provides examples of false positives and other classification errors. 中行は偽陰性の例を示し、下行は偽陽性と他の分類エラーの例を提供する。 0.68
tailed analysis of detection performance in cases of selfocclusion will increase our understanding of the behaviour of deep learning-based detection routines. 自己排他時の検出性能のテール分析は,深層学習に基づく検出ルーチンの動作の理解を深める。 0.71
Characterization of detection performance for what were previously considered “visible” pedestrians, in cases where the algorithm specific informative value of a pedestrian is occluded will help identify potential failure modes of current state-of-the-art pedestrian detection systems. 以前は「目に見える」歩行者と見なされていた歩行者の検知性能の特徴は、現在最先端の歩行者検知システムの潜在的な障害モードを特定するのに役立つ。
訳抜け防止モード: 従来「目に見える」歩行者の検出性能の評価 歩行者のアルゴリズム特定情報値がオクルードされた場合 現在の状態 - アート歩行者検出システム - の潜在的な障害モードを特定するのに役立ちます。
0.76
The quantitative validation results shown in Figure 5, demonstrate the proposed method’s capability in representing the “real world” or pixel-wise occlusion value for challenging pedestrian poses, regardless of the severity or form of occlusion. 図5に示す定量的な検証結果は、重度や閉塞形態に関わらず、歩行者のポーズに挑戦する「現実世界」や画素単位の閉塞値を表す手法の能力を実証している。 0.74
The proposed method of 2D body surface area estimation shown in Figure 1, derived from the “Wallace Rule of Nines”, has proven effective in calculating the visible area of partially occluded pedestrians for a wide range of pedestrian poses and occlusion scenarios. 図1に示す2次元体表面積推定の手法は, 歩行者の広い範囲のポーズと咬合シナリオに対して, 部分的に閉塞した歩行者の可視領域を計算するのに有効であることが証明された。 0.76
Further analysis of the quantitative validation results clearly displays an improvement over the current state-of-the-art [10] when com- 定量的検証結果のさらなる分析は、現在の最先端[10]よりも明らかに改善されている。 0.68
pared to the pixel-wise occlusion value. pixel-wise occlusion 値にパーされる。 0.70
5.1. Challenging Image Frames 5.1. 挑戦的画像フレーム 0.53
Figure 6 provides a sample of the classifier performance for challenging detection scenarios as well as highlighting classification errors that can occur for indistinct pedestrian instances in particular frames. 図6は、検出シナリオに挑戦するための分類器のパフォーマンスのサンプルを提供し、特定のフレームにおける不特定な歩行者インスタンスに対して起こりうる分類エラーを強調します。 0.71
Missed detections or false negatives can occur as a result of low detection confidence of the keypoint detector or MaskRCNN due to excessive motion blur, camera artifacts or low images resolution. 誤検出や偽陰性は、過度な動きのぼけ、カメラアーティファクト、画像解像度の低さによるキーポイント検出器またはMaskRCNNの低い検出信頼の結果起こる。 0.77
Detection confidence is reduced in scenarios where the pedestrian outline closely matches that of the image background. 歩行者の輪郭が画像背景と密接に一致するシナリオでは、検出信頼度が低下する。
訳抜け防止モード: 検出信頼度が低下するシナリオ 歩行者の輪郭は画像の背景とよく一致します。
0.77
Figure 6 (a), (b) and 図6 (a) (b) 0.31
(c) successfully classify pedestrian occlusion level in cases of heavy occlusion, image glare and low resolution respectively. (c)重度咬合,画像緑内障,低解像度の歩行者咬合レベルをそれぞれ分類することに成功している。 0.60
In each case, the pedestrian outline distinctly differs from the image background. いずれの場合も、歩行者の輪郭は画像の背景と明確に異なる。 0.69
In similar scenarios where the pedestrian outline and the image background are less diverse, such as in Figure 6 (h), 同様のシナリオでは、図6(h)のように、歩行者アウトラインと画像背景の多様性が低い。 0.73
(j) and (k), detection confidence is reduced resulting in a false negative. (j)及び (k)検出信頼度が低下し、偽陰性となる。 0.52
英語(論文から抽出)日本語訳スコア
Keypoint errors can occur in complex detection scenarios which can result in incorrect classification for a particular frame. キーポイントエラーは複雑な検出シナリオで起こり、特定のフレームの誤った分類をもたらす可能性がある。 0.74
Occurrences of these have been noted in cases where a pedestrian instance is highly segmented by the occluder, prompting the algorithm to propose multiple pedestrian instances or omitting sections of a pedestrian that appear to be unconnected to the primary pedestrian instance due to intersecting occlusion. これらの現象は、オクルーダーによって歩行者インスタンスが高度にセグメント化されている場合に指摘されており、アルゴリズムは複数の歩行者インスタンスを提案するか、断続的な閉塞のために一次歩行者インスタンスと接続していないように見える歩行者のセクションを省略するよう促している。 0.54
Examples of these occurrences can be seen in Figure 6 これらの現象の例を図6に示す。 0.80
(o), (p) and (s). (o) (p) と (s) である。 0.50
Similarly, pedestrian mask errors can also occur in challenging frames. 同様に、歩行者マスクの誤りは挑戦的なフレームでも起こりうる。 0.61
Mask errors can include mask leakage, which can falsely indicate the presence of occluded keypoints, Figure 6 (u), and incomplete or imprecise masks which can lead to the false omission of specific keypoints or pedestrian instances as shown in Figure 6 マスクエラーには、隠されたキーポイントの存在を誤って示すマスクリーク、図6(u)に示すような特定のキーポイントや歩行者インスタンスの誤認につながる不完全なマスク、不完全なマスクが含まれる。 0.70
(m), (n) and (t). (m) (n) と (t) である。 0.51
Although the proposed method is designed to focus on pedestrians, other road users such as cyclists, motorcyclists and children in strollers may be classified as occluded pedestrians. 提案手法は歩行者に焦点をあてるように設計されているが、自転車やモーターサイクリスト、ベビーカーの子供など他の道路利用者はオクルード歩行者に分類できる。 0.63
In addition, person depictions on advertising images and other media may be classified as pedestrians by the algorithm. また、広告画像やその他のメディアに対する人物描写は、アルゴリズムによって歩行者に分類される。 0.72
Many of the misclassification errors presented can be reduced by further improvement in keypoint and pedestrian mask detection models which can be integrated into the detection pipeline as technology progresses. 提示された誤分類誤差の多くは、技術が進むにつれて検出パイプラインに統合できるキーポイントおよび歩行者マスク検出モデルのさらなる改善によって低減することができる。 0.77
6. Conclusions This research proposes an objective method of pedestrian occlusion level classification for ground truth annotation. 6.結論 本研究では,歩行者咬合レベル分類の客観的な方法を提案する。 0.70
The proposed method uses keypoint detection and mask segmentation to identify and determine the visibility of the semantic parts of partially occluded pedestrians and calculates a percentage occluded body surface area using a novel, effective method for 2D body surface area estimation. 提案手法は,キーポイント検出とマスクセグメンテーションを用いて,部分的に隠蔽された歩行者のセマンティック部分の視認性を同定し,新しい2次元体表面積推定法を用いて,隠蔽された身体表面積の比率を算出する。 0.80
The proposed method removes the subjectivity of the human annotator used by the current state-of-the-art, in turn increasing the robustness and repeatability of pedestrian occlusion level classification. 提案手法は,現在最先端技術で使用されているアノテータの主観性を除去し,歩行者の閉塞レベル分類の堅牢性と再現性を高める。 0.64
Qualitative and quantitative validation demonstrates the effectiveness of the proposed method for all forms of occlusion including challenging edge cases such as self-occlusion and inter-occluding pedestrians. 定性的かつ定量的な検証は,自閉や咬合間歩行者などのエッジケースを含むすべての形態の咬合に対する提案手法の有効性を示す。 0.64
Experimental results show a significant improvement over the current state-of-the-art when plotted against the pixel-wise pedestrian occlusion level. 実験の結果,ピクセル単位の歩行者咬合レベルに対してプロットした場合,現在よりも有意に改善が見られた。 0.56
Universal use of the proposed method will improve the accuracy and consistency of occlusion level annotation in pedestrian detection benchmarks and will improve the precision of occlusion aware pedestrian detection networks. 提案手法の普遍的利用は, 歩行者検出ベンチマークにおける咬合レベルアノテーションの精度と一貫性を向上し, 咬合認識歩行者検出ネットワークの精度を向上させる。 0.76
Detailed analysis of edge cases such as self-occlusion, previously overlooked in popular pedestrian detection datasets, will increase our understanding of deep learning-based detection routines, provide more advanced characterisation of pedestrian detection algorithms and help to identify potential failure modes in current technology. これまで歩行者検出データセットで見過ごされていた自己排除のようなエッジケースの詳細な分析は、ディープラーニングに基づく検出ルーチンの理解を高め、歩行者検出アルゴリズムのより高度な特徴付けを提供し、現在の技術における潜在的な障害モードの特定を支援する。 0.70
References [1] T. Zhang, Q. Ye, B. Zhang, J. Liu, X. Zhang, and Q. Tian, “Feature calibration network for occluded pedestrian detection,” IEEE Transactions on Intelligent Transportation Systems, 2020. 参照: [1] T. Zhang, Q. Ye, B. Zhang, J. Liu, X. Zhang, Q. Tian, “Feature calibration network forococuded pedestrian detection, IEEE Transactions on Intelligent Transportation Systems, 2020”。
訳抜け防止モード: 参照 [ 1 ] T. Zhang, Q. Ye, B. Zhang, J. Liu、X. Zhang、そしてQ. Tianは、“障害物のある歩行者検出のための特徴校正ネットワーク”だ。 IEEE Transactions on Intelligent Transportation Systems, 2020
0.80
1 [2] B. Ruan and C. Zhang, “Occluded pedestrian detection combined with semantic features,” IET Image Processing, 2021. 1 IET Image Processing, 2021. [2] B. Ruan and C. Zhang, “Occluded pedestrian detection with semantic features”. IET Image Processing, 2021。
訳抜け防止モード: 1 2 ] b. ruan と c. zhang の両氏は,“歩行者検出と意味的特徴を組み合わせたオクルード” だ。 iet画像処理2021年。
0.52
1 [3] E. Vebjørn, S. Mats, P. Angelo, B. Gisela, J. Sebastian, W. Johan, H. Alena, et al , “The illusion of absence: how a common feature of magic shows can explain a class of road accidents,” Cognitive Research, vol. 1 E. Vebjørn, S. Mats, P. Angelo, B. Gisela, J. Sebastian, W. Johan, H. Alena, et al , “The illusion of absence: how a common feature of magic show can explain a class of road accidents”, Cognitive Research, Vol.
訳抜け防止モード: 1 [3 ]E. Vebjørn, S. Mats, P. Angelo, B. Gisela, J. Sebastian, W. Johan, H. Alena, et al, 『欠席の錯覚』 : どのようにして マジックショーの一般的な特徴は、道路事故のクラスを説明することができる。
0.62
6, no. 1, 2021. 6巻1巻2021年。 0.41
1 [4] S. Gilroy, E. Jones, and M. Glavin, “Overcoming occlusion in the automotive environment-a review,” IEEE Transactions on Intelligent Transportation Systems, 2019. 1 4] s. gilroy, e. jones, and m. glavin, “overcoming occlusion in the automotive environment-a review”. ieee transactions on intelligent transportation systems, 2019(英語)
訳抜け防止モード: 1 [4]S・ギルロイ、E・ジョーンズ、M・グラビン。 「自動車環境における排除の克服」 IEEE Transactions on Intelligent Transportation Systems, 2019 を参照。
0.57
1 [5] C. Ning, L. Menglu, Y. Hao, S. Xueping, and L. Yunhong, “Survey of pedestrian detection with occlusion,” Complex & Intelligent Systems, vol. 1 5]C.Ning, L. Menglu, Y. Hao, S. Xueping, L. Yunhong, “Survey of pedestrian detection with Oocclusion”, Complex & Intelligent Systems, vol。
訳抜け防止モード: 1 [5]C.Ning,L.Menglu,Y.Ha o, S. XuepingとL. Yunhongは、“Occlusionによる歩行者検出のサーベイ”と述べている。 Complex & Intelligent Systems, vol。
0.58
7, no. 1, pp. 577–587, 2021. 7, No. 1, pp. 577-587, 2021。 0.95
1 [6] J. Cao, Y. Pang, J. Xie, F. S. Khan, and L. Shao, “From handcrafted to deep features for pedestrian detection: A survey,” IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021. 1 J. Cao, Y. Pang, J. Xie, F. S. Khan, L. Shao, “From Handcrafted to Deep features for pedestrian detection: A survey”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021”. 2016年3月1日閲覧。
訳抜け防止モード: 1 [6]J.Cao,Y.Pang,J.Xie, F.S.カーンとL. Shao。 歩行者検出のための手工芸品から深い特徴へ IEEE Transactions on Pattern Analysis and Machine Intelligence, 2021。
0.59
1 [7] Y. Xiao, K. Zhou, G. Cui, L. Jia, Z. Fang, X. Yang, and Q. Xia, “Deep learning for occluded and multi-scale pedestrian detection: A review,” IET Image Processing, vol. 1 Y.Xiao, K. Zhou, G. Cui, L. Jia, Z. Fang, X. Yang, Q. Xia, “Deep Learning for occluded and multi-scale pedestrian detection: A review”, IET Image Processing, vol.
訳抜け防止モード: 1 [7]Xiao,K.Zhou,G.Cui, L. Jia, Z. Fang, X. Yang, Q. Xia 閉鎖型・マルチスケール歩行者検出のための深層学習 : レビュー, IET画像処理, vol。
0.59
15, no. 2, pp. 286–301, 2021. 15, No. 2, pp. 286–301, 2021。 0.48
1 [8] I. Hasan, S. Liao, J. Li, S. U. Akram, and L. Shao, “Generalizable pedestrian detection: The elephant in the room,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 11328–11337, 2021. 1 I. Hasan, S. Liao, J. Li, S. U. Akram, L. Shao, “Generalizable pedestrian detection: The elephant in the room” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 11328–11337, 2021。 0.43
1 [9] M. Braun, S. Krebs, F. Flohr, and D. M. Gavrila, “Eurocity persons: A novel benchmark for person detection in traffic scenes,” IEEE transactions on pattern analysis and machine intelligence, vol. 1[9]M. Braun, S. Krebs, F. Flohr, D. M. Gavrila, “Eurocity person: a novel benchmark for person detection in traffic scene”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション。 0.83
41, no. 8, pp. 1844–1861, 2019. 41, No. 8, pp. 1844-1861, 2019。 0.47
2, 3, 5 [10] S. Zhang, R. Benenson, and B. Schiele, “Citypersons: A diverse dataset for pedestrian detection,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 3213–3221, 2017. 2, 3, 5 S. Zhang, R. Benenson, and B. Schiele, “Citypersons: a various dataset for pedestrian detection” in Proceedings on the IEEE Conference on Computer Vision and Pattern Recognition, pp. 3213–3221, 2017
訳抜け防止モード: 2, 3, 5 [10 ]S.Zhang、R. Benenson、B. Schiele IEEEコンピュータビジョン・パターン認識会議における「歩行者検出のための多様なデータセット」 pp . 3213–3221 , 2017 .
0.58
2, 3, 5, 6 2, 3, 5, 6 0.42
[11] A. Geiger, P. Lenz, and R. Urtasun, “Are we ready for autonomous driving? the kitti vision benchmark suite,” in 2012 IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354–3361, IEEE, 2012. IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354–3361, IEEE, 2012.[11] A. Geiger, P. Lenz, R. Urtasun, “A we ready for autonomous driving? the kitti vision benchmark suite” in 2012 IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354–3361, IEEE, 2012.
訳抜け防止モード: [11 ]A. Geiger, P. Lenz, R. Urtasun 「自動運転の準備は出来ていますか?キティビジョンベンチマークスイート」 2012年IEEE Conference on Computer Vision and Pattern Recognition, pp. 3354–3361, IEEE, 2012
0.73
2, 3, 5 [12] P. Doll´ar, C. Wojek, B. Schiele, and P. Perona, “Pedestrian detection: A benchmark,” in 2009 IEEE Conference on Computer Vision and Pattern Recognition, pp. 304–311, IEEE, 2009. 2, 3, 5 P. Doll ́ar, C. Wojek, B. Schiele, P. Perona, “Pedestrian detection: A benchmark” in 2009 IEEE Conference on Computer Vision and Pattern Recognition, pp. 304–311, IEEE, 2009
訳抜け防止モード: 2, 3, 5 12 ] p. doll ́ar, c. wojek, b. schiele, 2009年ieee conference on computer vision and pattern recognitionでp. perona氏が"walker detection: a benchmark, "と題した講演を行った。 pp. 304-311、ieee、2009。
0.52
2, 3, 5 [13] S. Hwang, J. Park, N. Kim, Y. Choi, and I. So Kweon, “Multispectral pedestrian detection: Benchmark dataset and baseline,” in Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1037–1045, 2015. 2, 3, 5 S. Hwang, J. Park, N. Kim, Y. Choi, I. So Kweon, “Multispectral pedestrian detection: Benchmark dataset and baseline” in Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 1037–1045, 2015
訳抜け防止モード: 2, 3, 5 [13]S.Hwang, J. Park, N. Kim, Y. Choi, I.「マルチスペクトル歩行者検出 : ベンチマークデータセットとベースライン」 in Proceedings of the IEEE conference on computer vision and pattern recognition pp . 1037–1045 , 2015 .
0.57
2, 3, 5 [14] J. Qi, Y. Gao, X. Liu, Y. Hu, X. Wang, X. Bai, P. H. Torr, S. Belongie, A. Yuille, and S. Bai, “Occluded video instance segmentation,” arXiv preprint arXiv:2102.01558, 2021. 2, 3, 5 [14] J. Qi, Y. Gao, X. Liu, Y. Hu, X. Wang, X. Bai, P. H. Torr, S. Belongie, A. Yuille, S. Bai, “Occluded video instance segmentation” arXiv preprint arXiv:2102.01558, 2021。
訳抜け防止モード: 2, 3, 5 [ 14 ] j. qi, y. gao. x. liu, y. hu, x. wang, x. bai, p. h. torr, s. belongie, a. yuille, and s. bai, “occluded video instance segmentation” (英語) arxiv プレプリント arxiv:2102.01558 , 2021 。
0.59
2, 3 2, 3 0.85
英語(論文から抽出)日本語訳スコア
[28] A. Wallace, “The exposure treatment of burns,” The Lancet, [28]a.ウォレス,「火傷の暴露治療」ランセット. 0.49
vol. 257, no. 6653, pp. 501–504, 1951. vol.1。 257, No. 6653, pp. 501–504, 1951。 0.48
3 [29] G. A. KNAYSI, G. F. CRIKELAIR, and B. COSMAN, “The rule of nines: its history and accuracy,” Plastic and reconstructive surgery, vol. 3 [29] g. a. knaysi, g. f. crikelair, b. cosman, “the rule of nines: its history and accuracy”, plastic and reconstructionive surgery, vol. (英語)
訳抜け防止モード: 3 [29]G.A.KNAYSI、G.F.CRIKELAIR、B.COSMAN 『9つの規則 : その歴史と正確性, プラスチックと再建外科』, Vol.
0.59
41, no. 6, pp. 560–563, 1968. 41, No. 6, pp. 560–563, 1968。 0.47
3 [30] K. Borhani-Khomani, S. Partoft, and R. Holmgaard, “Assessment of burn size in obese adults; a literature review,” Journal of plastic surgery and hand surgery, vol. 3 30] k. borhani-khomani, s. partoft, r. holmgaard, “assessment of burn size in obese adults; a literature review”. journal of plastic surgery and hand surgery, vol. (英語)
訳抜け防止モード: 3 30 ] k. borhani - khomani、s. partoft、r. holmgaard。 「肥満者における熱傷の程度評価 : 文献的考察」 journal of plastic surgery and hand surgery, vol. の略。
0.58
51, no. 6, pp. 375–380, 2017. 51, no. 6, pp. 375-380, 2017年。 0.86
3 [31] I. Tocco-Tussardi, B. Presman, and F. Huss, “Want correct percentage of tbsa burned? let a layman do the assessment,” Journal of Burn Care & Research, vol. 3 31] tocco-tussardi氏、b. presman氏、f. huss氏は、tbsaを燃やした確率は正しいのか?
訳抜け防止モード: 3 He 31 ] I. Tocco - Tussardi, B. Presman, F. Huss. 「tbsaの燃焼率の正当性を求めるか?」 と、Journal of Burn Care & Research, vol.は述べている。
0.62
39, no. 2, pp. 295– 301, 2018. 39, no. 2, pp. 295–301, 2018。 0.42
3 [32] E. H. Livingston and S. Lee, “Percentage of burned body surface area determination in obese and nonobese patients,” Journal of surgical research, vol. 3 32] e. h. livingston と s. lee は,“肥満患者および非肥満患者における熱傷体表面積決定の比率” を示した。
訳抜け防止モード: 3 32 ] e. h. livingston と s. lee は,「肥満および非肥満患者の熱傷体表面積決定率」を示した。 外科専門誌(journal of surgical research, vol.)。
0.55
91, no. 2, pp. 106–110, 2000. 91, No. 2, pp. 106–110, 2000。 0.92
3 [33] S. Gilroy, M. Glavin, E. Jones, and D. Mullins, “Pedestrian occlusion level classification using keypoint detection and 2d body surface area estimation,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3833–3839, 2021. 3 S. Gilroy, M. Glavin, E. Jones, D. Mullins, “Pedestrian occlusion level classification using keypoint detection and 2d body surface area estimation” in Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 3833–3839, 2021。
訳抜け防止モード: 3 [33]S. Gilroy, M. Glavin, E. Jones とD. Mullinsは言う。「キーポイント検出と2次元体表面積推定による歩行者の閉塞レベル分類」。 In Proceedings of the IEEE / CVF International Conference on Computer Vision pp . 3833–3839 , 2021 .
0.62
3 [34] Y. Wu, A. Kirillov, F. Massa, W. 3 [34] Y. Wu, A. Kirillov, F. Massa, W. 0.46
-Y. Lo, and R. Girhttps://github.co m/ -y。 Lo, and R. Girhttps://github.co m/ 0.36
shick, facebookresearch/det ectron2, 2019. シック、facebookresearch/det ectron2、2019。 0.63
3 “Detectron2.” [35] T. 3 「検出器2」 [35]T。 0.50
-Y. Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Doll´ar, and C. L. Zitnick, “Microsoft coco: Common objects in context,” in European conference on computer vision, pp. 740–755, Springer, 2014. -y。 Lin, M. Maire, S. Belongie, J. Hays, P. Perona, D. Ramanan, P. Doll ́ar, C. L. Zitnick, “Microsoft coco: Common Object in context” in European conference on computer vision, pp. 740–755, Springer, 2014
訳抜け防止モード: -y。 Lin, M. Maire, S. Belongie, J. Hays, P. Perona D. Ramanan, P. Doll ́ar, and C. L. Zitnick, “Microsoft coco : Common Object in context”。 欧州のコンピュータビジョン会議において, pp. 740-755, Springer, 2014。
0.64
3 [36] K. He, G. Gkioxari, P. Doll´ar, and R. Girshick, “Mask rcnn,” in Proceedings of the IEEE international conference on computer vision, pp. 2961–2969, 2017. 3 K. He, G. Gkioxari, P. Doll ́ar, R. Girshick, "Mask rcnn" in Proceedings of the IEEE International Conference on computer vision, pp. 2961–2969, 2017
訳抜け防止モード: 3 [36 ]K. He, G. Gkioxari, P. Doll ́ar. そしてR. Girshick氏は、IEEEのコンピュータビジョンに関する国際会議、Proceedingsで“Mask rcnn, ”と題している。 pp . 2961–2969 , 2017 .
0.57
3, 5 [37] J. Zhuo, Z. Chen, J. Lai, and G. Wang, “Occluded person re-identification,” in 2018 IEEE International Conference on Multimedia and Expo (ICME), pp. 1–6, IEEE, 2018. 3, 5 J. Zhuo, Z. Chen, J. Lai, G. Wang, “Occluded person re-identification” in 2018 IEEE International Conference on Multimedia and Expo (ICME), pp. 1–6, IEEE, 2018。
訳抜け防止モード: 3, 5 [37 ]J. Zhuo, Z. Chen, J. Lai 2018年のIEEE International Conference on Multimedia and Expo (ICME)でG. Wang氏は次のように述べている。 pp. 1-6 , IEEE , 2018。
0.65
5 [38] J. Mar´ın, D. V´azquez, A. M. L´opez, J. Amores, and L. I. Kuncheva, “Occlusion handling via random subspace classifiers for human detection,” IEEE transactions on cybernetics, vol. 5 J. Mar ́ın, D. V ́azquez, A. M. L ́opez, J. Amores, L. I. Kuncheva, “Occlusion handle via random subspace classifications for human detection”, IEEE transaction on Cybernetics, vol.
訳抜け防止モード: 5 38 ] j. mar ́ın, d. v ́azquez, a. m. l ́opez, j. amores. l. i. kuncheva 「ランダムな部分空間分類器による人間の検出による咬合処理」 ieee transactions on cybernetics, vol. を参照。
0.54
44, no. 3, pp. 342–354, 2013. 44, No. 3, pp. 342–354, 2013。 0.94
5 [15] Y. Pang, J. Cao, Y. Li, J. Xie, H. Sun, and J. Gong, “Tjudhd: A diverse high-resolution dataset for object detection,” IEEE Transactions on Image Processing, vol. 5 [15] Y. Pang, J. Cao, Y. Li, J. Xie, H. Sun, J. Gong, “Tjudhd: オブジェクト検出のための多種多様な高解像度データセット”, IEEE Transactions on Image Processing, Vol. 0.67
30, pp. 207– 219, 2020. 30p.207-219、2020年。 0.70
2 [16] X. Li, F. Flohr, Y. Yang, H. Xiong, M. Braun, S. Pan, K. Li, and D. M. Gavrila, “A new benchmark for vision-based cyclist detection,” in 2016 IEEE Intelligent Vehicles Symposium (IV), pp. 1028–1033, IEEE, 2016. 2 16] X. Li, F. Flohr, Y. Yang, H. Xiong, M. Braun, S. Pan, K. Li, D. M. Gavrila, “A new benchmark for vision-based cyclist detection” in 2016 IEEE Intelligent Vehicles Symposium (IV), pp. 1028–1033, IEEE, 2016
訳抜け防止モード: 2 [16 ]X. Li, F. Flohr, Y. Yang, H.Xiong, M. Braun, S. Pan, K. Li とD.M. Gavrila氏は語る。 2016年IEEE Intelligent Vehicles Symposium (IV ), pp. 1028–1033. IEEE、2016年。
0.58
2, 3 [17] X. Li, L. Li, F. Flohr, J. Wang, H. Xiong, M. Bernhard, S. Pan, D. M. Gavrila, and K. Li, “A unified framework for concurrent pedestrian and cyclist detection,” IEEE Transactions on Intelligent Transportation Systems, vol. 2, 3 X. Li, L. Li, F. Flohr, J. Wang, H. Xiong, M. Bernhard, S. Pan, D. M. Gavrila, K. Li, “A unified framework for concurrent pedestrian and cyclist detection”, IEEE Transactions on Intelligent Transportation Systems, vol.
訳抜け防止モード: 2, 3 [17 ]X.Li,L.Li,F.Flohr, J. Wang, H. Xiong, M. Bernhard, S. Pan, D. M. Gavrila そしてK. Liは、“同時歩行者と自転車の同時検出のための統一的なフレームワーク”だ。 IEEE Transactions on Intelligent Transportation Systems, vol。
0.79
18, no. 2, pp. 269–281, 2017. 18, No. 2, pp. 269–281, 2017。 0.46
2 [18] Y. -T. 2 [18] Y。 -T。 0.41
Hu, H. -S. Chen, K. Hui, J. H, H。 -S。 チェン、k.ヒューイ、j. 0.50
-B. Huang, and A. G. Schwing, “Sail-vos: Semantic amodal instance level video object segmentation-a synthetic dataset and baselines,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 3105–3115, 2019. -B。 Huang, and A. G. Schwing, “Sail-vos: Semantic amodal instance level video object segmentation-a synthetic dataset and baselines” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 3105–3115, 2019。
訳抜け防止モード: -B。 Huang, and A. G. Schwing, “ Sail - vos : Semantic amodal instance level video object segmentation -” IEEE / CVF Conference on Computer Vision and Pattern Recognition における「合成データセットとベースライン」 pp . 3105–3115 , 2019 .
0.67
2 [19] S. Zhang, R. Benenson, M. Omran, 2 [19]S.張、R.ベネンソン、M.オムラン 0.56
J. Hosang, and B. Schiele, “How far are we from solving pedestrian detection?,” in Proceedings of the iEEE conference on computer vision and pattern recognition, pp. 1259–1267, 2016. j. hosangとb. schieleは、2016年のieee conference on computer vision and pattern recognition, pp. 1259–1267で、“歩行者検出の解決はどこまで進んでいるのか? 0.72
2 [20] S. Shao, Z. Zhao, B. Li, T. Xiao, G. Yu, X. Zhang, and J. Sun, “Crowdhuman: A benchmark for detecting human in a crowd,” arXiv preprint arXiv:1805.00123, 2018. 2 S. Shao, Z. Zhao, B. Li, T. Xiao, G. Yu, X. Zhang, J. Sun, “Crowd Human: A benchmark for detect a crowd in a crowd”, arXiv preprint arXiv:1805.00123, 2018. ]
訳抜け防止モード: 2 [20 ]S. Shao, Z. Zhao, B. Li, T.Xiao, G. Yu, X. Zhang, J. Sun 「群衆人間 : 群衆の中の人間を検出するためのベンチマーク」 arXiv preprint arXiv:1805.00123 , 2018
0.65
2 [21] C. Chi, S. Zhang, J. Xing, Z. Lei, S. Z. Li, and X. Zou, “Pedhunter: Occlusion robust pedestrian detector in crowded scenes,” in Proceedings of the AAAI Conference on Artificial Intelligence, vol. 2 C. Chi, S. Zhang, J. Xing, Z. Lei, S. Z. Li, and X. Zou, “Pedhunter: Occlusion robust pedestrian detector in crowded scene” in Proceedings of the AAAI Conference on Artificial Intelligence, vol。
訳抜け防止モード: 2 21 ]c.chi,s.zhang,j.xing , z. lei, s. z. li, x. zou, "pedhunter : occlusion robust pedestrian detector in crowded scene" aaai conference on artificial intelligence(aiaiの人工知能に関する会議)の議事録に書かれている。
0.51
34, pp. 10639–10646, 2020. 34, pp. 10639–10646, 2020。 0.46
2 [22] P. Chaudhary, S. D’Aronco, M. Moy de Vitry, J. P. Leit˜ao, and J. D. Wegner, “Flood-water level estimation from social media images,” ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, vol. 2 P. Chaudhary, S. D’Aronco, M. Moy de Vitry, J. P. Leit 'ao, J. D. Wegner, “Flood-water level Estimation from social media images”, ISPRS Annals of the Photogrammetry, Remote Sensing and Space Information Sciences, vol.
訳抜け防止モード: 2 [22 ] P. Chaudhary, S. D'Aronco, M. Moy de Vitry. J.P.レイト・シャオとJ.D.ウェグナーは「洪水 - ソーシャルメディアの画像から水位を推定する」と述べた。 ISPRS Anals of the Photogrammetry, Remote Sensing and Space Information Sciences,vol
0.61
4, no. 2/W5, pp. 5–12, 2019. 第4巻2/W5, pp. 5-12, 2019。 0.62
2 [23] Y. Feng, C. Brenner, and M. Sester, “Flood severity mapping from volunteered geographic information by interpreting water level from images containing people: A case study of hurricane harvey,” ISPRS Journal of Photogrammetry and Remote Sensing, vol. 2 isprs journal of photogrammetry and remote sensing, vol. “23] y. feng, c. brenner, m. sesterは、“人を含む画像から水位を解釈することで、ボランティアの地理情報から重大度マッピングする。
訳抜け防止モード: 2 [23 ] Y. Feng, C. Brenner, M. Sester 「ボランティアによる地理情報からの洪水重大度マッピング」 人を含む画像から水位を解釈する The Case Study of hurricane harvey, ISPRS Journal of Photogrammetry and Remote Sensing, vol。
0.64
169, pp. 301–319, 2020. 169年、p.301-319、2020年。 0.66
2 [24] K. -A. 2 [24]K。 -A。 0.40
C. Quan, V. C. Quan, V。 0.47
-T. Nguyen, T. -T。 t、nguyen、t。 0.44
-C. Nguyen, T. V. Nguyen, and M. -C。 Nguyen, T. V. Nguyen, M。 0.43
-T. Tran, “Flood level prediction via human pose estimation from social media images,” in Proceedings of the 2020 International Conference on Multimedia Retrieval, pp. 479–485, 2020. -T。 Tran, “Flood Level Prediction via human pose Estimation from social media images” in Proceedings of the 2020 International Conference on Multimedia Retrieval, pp. 479–485, 2020.
訳抜け防止モード: -T。 ソーシャルメディア画像からの人間のポーズ推定による洪水レベルの予測”。 In Proceedings of the 2020 International Conference on Multimedia Retrieval, pp. 479–485, 2020
0.59
2 [25] J. Noh, S. Lee, B. Kim, and G. Kim, “Improving occlusion and hard negative handling for single-stage pedestrian detectors,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 966–974, 2018. 2 J. Noh, S. Lee, B. Kim, and G. Kim, “Immproving occlusion and hard negative handling for single-stage pedestrian detectors” in Proceedings on the IEEE Conference on Computer Vision and Pattern Recognition, pp. 966–974, 2018.
訳抜け防止モード: 2 [25 ]J.能、S.リー、B.キム そしてG. Kimは、“単一ステージの歩行者検知器の閉塞と硬い負の扱いを改善する”。 IEEE Conference on Computer Vision and Pattern Recognition に参加して pp . 966–974 , 2018 .
0.62
3 [26] S. Zhang, L. Wen, X. Bian, Z. Lei, and S. Z. Li, “Occlusionaware r-cnn: Detecting pedestrians in a crowd,” in Proceedings of the European Conference on Computer Vision (ECCV), pp. 637–653, 2018. 3 S. Zhang, L. Wen, X. Bian, Z. Lei, and S. Z. Li, “Occlusionaware r-cnn: Detecting pedestrians in a crowd” in the Proceedings of the European Conference on Computer Vision (ECCV), pp. 637–653, 2018.
訳抜け防止モード: 3 26] s. zhang, l. wen, x. bian, z. leiとs. z. li, “ococionaware r - cnn: detection pedestrians in a crowd” 欧州コンピュータビジョン会議(eccv)の開催にあたって pp . 637–653 , 2018 .
0.59
3 [27] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, and D. Ramanan, “Object detection with discriminatively trained partbased models,” IEEE transactions on pattern analysis and machine intelligence, vol. 3 P. F. Felzenszwalb, R. B. Girshick, D. McAllester, D. Ramanan, “差別的に訓練された部分ベースモデルによるオブジェクト検出”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション, vol. 0.64
32, no. 9, pp. 1627–1645, 2009. 32, no. 9, pp. 1627–1645, 2009 頁。 0.84
3 3 0.42
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。