Deep neural networks (DNNs) are vulnerable to adversarial attacks. In
particular, object detectors may be attacked by applying a particular
adversarial patch to the image. However, because the patch shrinks during
preprocessing, most existing approaches that employ adversarial patches to
attack object detectors would diminish the attack success rate on small and
medium targets. This paper proposes a Frequency Module(FRAN), a
frequency-domain attention module for guiding patch generation. This is the
first study to introduce frequency domain attention to optimize the attack
capabilities of adversarial patches. Our method increases the attack success
rates of small and medium targets by 4.18% and 3.89%, respectively, over the
state-of-the-art attack method for fooling the human detector while assaulting
YOLOv3 without reducing the attack success rate of big targets.
USING FREQUENCY ATTENTION TO MAKE ADVERSARIAL PATCH
副鼻腔パッチに対する周波数アテンションの使用
0.30
POWERFUL AGAINST PERSON DETECTOR ∗
人検知器 ∗ に対して強力である
0.27
School of Computer Science and Information Security
コンピュータ科学・情報セキュリティ研究科
0.69
School of Computer Science and Information Security
コンピュータ科学・情報セキュリティ研究科
0.69
Guilin University of Electronic Technology Guilin University of Electronic Technology
ギリン電子工学大学 ギリン電子工学大学
0.45
Xiaochun Lei
Xiaochun (複数形 Xiaochuns)
0.16
Chang Lu School of Computer Science and Information Security
チャン・ル コンピュータ科学・情報セキュリティ研究科
0.56
School of Computer Science and Information Security
コンピュータ科学・情報セキュリティ研究科
0.69
Guilin University of Electronic Technology Guilin University of Electronic Technology
ギリン電子工学大学 ギリン電子工学大学
0.45
School of Computer Science and Information Security
コンピュータ科学・情報セキュリティ研究科
0.69
School of Computer Science and Information Security
コンピュータ科学・情報セキュリティ研究科
0.69
Guilin University of Electronic Technology Guilin University of Electronic Technology
ギリン電子工学大学 ギリン電子工学大学
0.45
China, GuiLin 541010 lxc8125@guet.edu.cn
中国、GuiLin 5410 lxc8125@guet.edu.cn
0.33
Zetao Jiang∗
Zetao Jiang∗
0.44
China, GuiLin 541010
中国、GuiLin541010
0.37
zetaojiang@guet.edu. cn
zetaojiang@guet.edu. cn
0.29
Xiang Cai
Xiang (複数形 Xiangs)
0.32
China, GuiLin 541010 xiangcai@keter.top
中国、GuiLin 541010 xiangcai@keter.top
0.43
China, GuiLin 541010 Changlu@keter.top
中国、GuiLin 541010 Changlu@keter.top
0.43
Zhaoting Gong
Zhaoting Gong
0.43
China, GuiLin 541010 gavin@gong.host
中国、GuiLin 541010gavin@gong.hos t
0.85
Linjun Lu China, GuiLin 541010
林純(りんじゅん) 中国、GuiLin541010
0.31
linjunlu@zerorains.t op
linjunlu@zerorains.t op
0.39
ABSTRACT Deep neural networks (DNNs) are vulnerable to adversarial attacks.
ABSTRACT ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
0.53
In particular, object detectors may be attacked by applying a particular adversarial patch to the image.
特に、対象検出器は、画像に特定の逆パッチを適用することで攻撃される。
0.64
However, because the patch shrinks during preprocessing, most existing approaches that employ adversarial patches to attack object detectors would diminish the attack success rate on small and medium targets.
This is the first study to introduce frequency domain attention to optimize the attack capabilities of adversarial patches.
敵パッチの攻撃能力を最適化するために周波数領域注意を導入した最初の研究である。
0.67
Our method increases the attack success rates of small and medium targets by 4.18% and 3.89%, respectively, over the state-of-the-art attack method for fooling the human detector while assaulting YOLOv3 without reducing the attack success rate of big targets.
In the last years, several studies [4–7] have recently demonstrated that object detection networks are similarly susceptible to perturbation by adversarial samples.
Thys et al [4] create a printed adversarial patch that successfully attacked the object detector YOLOv2 [8].
Thys et al [4] は、オブジェクト検出器YOLOv2[8]を攻撃した、印刷された敵パッチを作成する。
0.70
Liu et al [5] successfully render the object detection network incapable of recognizing objects and generating incorrect prediction
Liu et al [5]はオブジェクト認識不能なオブジェクト検出ネットワークをうまくレンダリングし、誤った予測を生成する
0.86
∗The first author and the second author have the same contribution to the work.
∗ 第1の著者と第2の著者は同じ貢献をしている。
0.68
英語(論文から抽出)
日本語訳
スコア
Running Title for Header
ヘッダーのランニング・タイトル
0.77
categories. Wu et al [6] formed wearable clothes for eluding the object detector.
カテゴリー。 Wu et al [6] はオブジェクト検出器を溶かすためのウェアラブルウェアを形成した。
0.66
They use one adversarial patch to attack one-stage [9] and two-stage [10] object detectors.
1段[9]と2段[10]オブジェクト検出器を攻撃するために、1つの敵パッチを使用する。
0.60
Wu et al [6] create wearable clothes for evading the object detector.
Wu et al [6] はオブジェクト検出器を回避するためのウェアラブル服を作成する。
0.70
Xu et al [7] use a thin-plate spline (TPS) base transformer to build a more robust patch that can withstand non-rigid deformation caused by a moving person’s posture changes.
Xu et al [7]は、TPSベーストランスフォーマーを使用して、動く人の姿勢の変化によって引き起こされる非剛性な変形に耐えられる、より堅牢なパッチを構築します。
0.66
Furthermore, network input size, JPEG compression [1], and network processing can all have impacted the efficacy of adversarial patches.
When the picture is scaled, the loss of high-frequency signals significantly decreases faster than the loss of low-frequency signals.
画像がスケールされると、高周波信号の損失は低周波信号の損失よりも大幅に減少する。
0.81
The reduction in picture size resulted in an overall loss of high-frequency signals, leading to imbalanced representations.
画像サイズの減少は、高周波信号の全体的な損失をもたらし、不均衡な表現につながった。
0.67
High-frequency information is also discarded by JPEG compression.
高周波情報はJPEG圧縮によって破棄される。
0.64
As described, using patches to attack the object detector has an inherent difficulty: while patching, we frequently must shrink the patches and then paste them on the objects in the image.
This module can determine the relative importance of various locations within the patch frequency domain, allowing the patched attack to rely on low-frequency signals.
The attack success rates of medium and small objects in our method are 3.89% and 4.18%, respectively, higher than the current best attack algorithm [4], which uses the patch to fool YOLOv3 while detecting people without affecting the attack success rate of large objects.
In Section 5, we reach a conclusion and look at the future directions of our research.
第5節では結論に達し,今後の研究の方向性について考察する。
0.74
2 Related work Attacks against object detectors have grown exceedingly prevalent due to the widespread use of object detection networks in various areas.
In this section, we first go over the related works of the object detection network and the attacks against the object detection network, and then we go over the present challenges.
The popular one-stage object detector and two-stage object detector are the most common types of modern detectors.
一般的な1段物検出器と2段物検出器は、現代の検出器の最も一般的なタイプである。
0.66
The two-stage detector splits the detection task into two parts.
2段階検出器は、検出タスクを2つに分割する。
0.69
In the first stage, the objects in the picture are located.
最初の段階では、写真のオブジェクトが配置されます。
0.80
And then, the object detector outputs the categories of the located objects acquired in the first stage.
そして、オブジェクト検出器は、第1段階で取得した位置オブジェクトのカテゴリを出力する。
0.83
Faster RCNN [10] is a common two-stage detection network.
高速RCNN[10]は一般的な2段階検出ネットワークである。
0.73
It extracts the region of interest (ROI) using RPN, then produces and classifies detection boxes based on the ROI.
RPNを用いて関心領域(ROI)を抽出し、ROIに基づいて検出ボックスを生成し分類する。
0.73
Although two-stage object detectors have the advantage of accuracy, the detection speed of two-stage object detectors is often slower than that of one-stage object detectors since the prediction process is divided into two stages.
The other is to attack the detectors by changing the pixel value of the input image directly.
もう1つは、入力画像の画素値を直接変えて検出器を攻撃することである。
0.73
2
2
0.42
英語(論文から抽出)
日本語訳
スコア
Running Title for Header
ヘッダーのランニング・タイトル
0.77
Figure 1: A overview of the framework.
図1: フレームワークの概要。
0.57
Thys et al [4] first proposed using the adversarial patch to attack the object detection network in 2019.
thysら[4]は2019年に、敵のパッチを使ってオブジェクト検出ネットワークを攻撃することを提案した。 訳抜け防止モード: Thys et al [ 4 ] が最初に提案された 2019年に 敵のパッチを使って 物体検出ネットワークを攻撃。
0.78
They use the loss function to guide the patch generation process, gradient descent to update the patch, and eventually, disable YOLOv2 [8] from detecting patched objects.
Moreover, Thys et al print out the patches to fool the object detector in the physical world by holding a small cardboard plate in front of their body.
Liu et al [5] interfere with the detection results of the entire picture by affixing patches to the image’s edge angle and implemented the object-vanishing and object-mislabeling attacks by designing different loss functions in the same year.
liu et al [5]は、画像のエッジアングルにパッチを当てることで画像全体の検出結果に干渉し、同じ年に異なる損失関数を設計することによって、オブジェクトバニッシブおよびオブジェクトミスラベル攻撃を実装した。 訳抜け防止モード: Liu et al [ 5 ] は、画像のエッジ角にパッチをアタッチすることで、画像全体の検出結果に干渉する オブジェクト - 消滅とオブジェクト - を実装しました 同じ年に 異なる損失関数を 設計することで
0.79
Wu et al [6] use one adversarial patch to attack one-stage [8, 9] and two-stage [10] object detectors.
Wu et al [6] は、1段 [8, 9] と2段 [10] オブジェクト検出器を攻撃するために、1つの敵パッチを使用する。 訳抜け防止モード: Wu et al [ 6 ] は1つの逆パッチを使用する to attack one - stage [ 8, 9 ] and two - stage [ 10 ] object detectors.
0.79
They design wearable clothes that could attack the object detector in the physical world by printing the patch on clothes.
Furthermore, they explore how patches’ attack ability can be applied among different detectors.
さらに彼らは、パッチの攻撃能力を異なる検出器間でどのように適用できるかを探っている。
0.56
According to their research, the patch’s attack has strong transferability between networks with the same backbone but is poor between one-stage and two-stage object detection networks.
Xu et al [7] utilize a TPS base transformer to model the non-rigid deformation of clothing induced by a moving person’s posture changes to create a more robust adversarial T-shirt.
Xu et al [7]は、TPSベースのトランスフォーマーを使用して、移動者の姿勢変化によって引き起こされる衣服の非剛性変形をモデル化し、より堅牢な対向Tシャツを作成する。
0.72
Lennon et al [13] apply an affine transformation to generate distinct viewpoints of the same patch, fuse the results of computation generated by different viewpoints patches, and then update the patch using gradient descent.
Lennon et al [13] は、アフィン変換を適用して、同じパッチの異なる視点を生成し、異なる視点パッチによって生成された計算結果を融合し、勾配勾配を使ってパッチを更新する。
0.61
As a result, the created patch is more robust from various viewpoints.
その結果、生成されたパッチは様々な観点からより堅牢である。
0.70
In previous research, people directly modified the picture pixels to attack the object detection network.
これまでの研究では、画像画素を直接修正してオブジェクト検出ネットワークを攻撃した。
0.74
This attack method originates from the study [1] that concerned attack classification networks, and its primary purpose is to create a disturbance that is difficult to notice by humans and causes the object detector to be disturbed at the same time.
Their work describes three Targeted Adversarial Objectness Gradient (TOG) attack methods that can induce object-vanishing, object-fabrication, and object-mislabeling attacks in state-of-the-art object detectors.
There is an inherent difficulty with the strategy of using patches to attack the object detector: while patching, we frequently need to shrink the patches and then paste them on the objects in the image.
We guide the frequency domain information of the patch through the frequency attention module, such that the patch’s attack ability depends more on the low-frequency signal.
Because the low-frequency signal of the picture will lose less than the high-frequency signal during image shrinking, the patch’s aggressiveness will be preserved even more.
FRAN is a frequency domain attention module that assigns different weights in the frequency domain.
FRANは周波数領域の異なる重みを割り当てる周波数領域アテンションモジュールである。
0.77
Figure 2 depicts the construction of FRAN.
図2はFRANの構築を描いている。
0.71
The FRAN’s general procedure entails converting the patch to the frequency domain using Fast Fourier Transform (FFT) [17] and multiplying it by the attention mask.
The output of FRAN is obtained by applying an Inverse Fast Fourier Transform (IFFT) to the results obtained in the previous step.
FRANの出力は、前ステップで得られた結果に逆高速フーリエ変換(IFFT)を適用して得られる。
0.74
More formally, we take Fθ as an attention function in the frequency domain.
より正式には、周波数領域の注意関数として Fθ を用いる。
0.74
The attention function takes the patch P ∈ Rw×h×3 as input and θ ∈ Rw×h×3 as the parameter of the attention module.
注意関数は、パッチ P ∈ Rw×h×3 を入力とし、θ ∈ Rw×h×3 を注目モジュールのパラメータとする。
0.85
F F T (x) is the fast fourier transform while F F T −1(x) represents the inverse fast fourier transform.
F F T (x) は高速フーリエ変換であり、F F T −1(x) は逆高速フーリエ変換を表す。
0.69
Y(x) transforms the patch from RGB to YCbCr color format.
Y(x)はパッチをRGBからYCbCr色に変換する。
0.78
Y−1(x) is the inverse process of Y(x) FRAN’s output Fθ(P) can be stated below:
Y−1(x) は、Y(x) FRAN の出力 Fθ(P) の逆過程である。
0.79
Fθ(P) = Y−1(F F T −1(F F T (Y(P (cid:12) θ))))
Fθ(P) = Y−1(F F T −1(F F T (Y(P (cid:12) θ)))
0.50
(1) Because the image’s high-frequency signal generally loss more than the low-frequency signal during scaling.
(1) なぜなら、画像の高周波信号は、スケーリング中に低周波信号よりも多く失われるからだ。
0.54
Consequently, the attack success rate for small and medium target objects can be enhanced if the patch’s attack ability depends more on the low-frequency signal.
TV loss [4] represents the total variation in the image, resulting in a patch with smooth color transitions and minimal noise.
テレビのロス[4]は画像の総変化を表し、スムーズな色遷移と最小限のノイズを伴うパッチとなる。
0.77
The following formula shows how TV loss is calculated in the previous works [4, 6, 7] of attacking object detectors with adversarial patches.
以下の式は, 対向パッチによる物体検知器の攻撃における, テレビの損失の計算方法を示すものである。
0.67
(pi,j − pi+1,j)2 + (pi,j − pi,j+1)2
(pi,j − pi+1,j)2 + (pi,j − pi,j+1)2
0.50
(2) The pi,j represents the pixel in patch P. This approach only calculates the distance between each pixel and the pixel to its right and the pixel below it.
4 Experiments and results We demonstrate the efficiency of our strategy in this section by comparing our attack effect against several object detectors.
While there are many researches that have optimized the aggressiveness of the patch, their research has focused on optimizing the aggressiveness of the patch in the physical world [6, 7, 13] or generating new attack effects [5, 16].
The core idea to generate the adversarial patch of those researches is still based on the baseline [4].
これらの研究の逆のパッチを生成するための核となるアイデアは、ベースライン [4] に基づいている。
0.64
Thus, we choose the method proposed in [4] as the baseline.
したがって,[4]で提案した手法をベースラインとして選択する。
0.86
We refer to the patch in our methods as P1 and the patch generated by the baseline as P2.
我々は,本手法のパッチをP1と呼び,ベースラインで生成されたパッチをP2と呼ぶ。
0.74
The rest of this section is structured as following.
この部分の残りは以下のとおりである。
0.62
In Section 4.1, we introduce the basic settings of the experiment, including the data set, the attacked object detectors and the evaluation index.
第4節1では,データセット,攻撃対象検出器,評価指標など,実験の基本的設定について紹介する。
0.77
Section 4.2 introduces our method for attacking objects of various sizes and different detectors then evaluates its robustness against JPEG compression resistance.
Finally, we use ablation experiments to illustrate the efficiency of our strategy.
最後に,アブレーション実験を用いて戦略の効率を示す。
0.71
Figure 3 depicts several examples of attacking the object detector.
図3は、オブジェクト検出器を攻撃するいくつかの例を示しています。
0.54
We compared four attack methods in the figure.
図中の4つの攻撃方法を比較した。
0.73
The first three methods employ the FRAN to guide the patch generation process, and their impacts on small and medium objects are more significant than the Baseline.
Third row: use FRAN throughout the generating process.
3行目:生成プロセス全体でFRANを使用する。
0.78
Fourth row: use the baseline [4] method
4行目:ベースライン[4]メソッドを使用する
0.84
to generate the patch.
パッチを生成します。
0.74
Fifth row: use random generated patch.
5行目:ランダムに生成されたパッチを使用する。
0.52
Sixth row: original image without patch
6列目:パッチなしの原像
0.73
attack success rate. The last two lines of the image show the results of the object detector when detecting the original image and the image with a random patch.
If (cid:49)[condition] is 1 or 0, the condition is satisfied.
cid:49)[条件]が1または0であれば、条件は満たされる。
0.81
We consider x as the input image, D as the set of all x.
x を入力像とし、D をすべての x の集合とする。
0.71
x(cid:48) represents the image after adversarial disturbance.
x(cid:48) は逆乱後の画像を表す。
0.76
We use ˆo to denote a ground truth box and ˆo(cid:48) to denote the predicted box.
我々は、接地真理箱を表すのに「o」と予測箱を表すのに「o(cid:48)」を用いる。
0.55
Let (cid:48) ˆO(x) be the set of ground-truth objects of ˆo.
(cid:48) so(x) を so の接地対象の集合とする。
0.64
Similarly, let ˆO(x(cid:48)) be the set of predicted objects of ˆo(cid:48).
同様に、sO(x(cid:48)) を so(cid:48) の予測対象の集合とする。
0.81
IOU (ˆo, ˆo )
IOU(オオ、オオ)
0.72
6 (6)
6 (6)
0.43
英語(論文から抽出)
日本語訳
スコア
Running Title for Header
ヘッダーのランニング・タイトル
0.77
represents the intersection over union of o and o(cid:48).
o と o(cid:48) の和の交叉を表す。
0.71
tIOU , a specified super parameter, represents the IOU threshold.
指定されたスーパーパラメータであるtIOUは、IOU閾値を表す。
0.67
For the calculations in the experiment, we choose 0.5 [19].
実験の計算には0.5[19]を選択します。
0.83
However, calculating ASR alone does not account for the attack effect of adversarial patches on objects of numerous sizes; consequently, we proposed ASRs, ASRm, and ASRl based on the ideas of APs, APm, and APl [20].
In this paper, we hope that the patch can successfully attack objects of various sizes, which means that it must remain adversarial even after being shrunk in several times.
FRAN is the option of whether to use the frequency domain attention mask, YCbCr represents whether to convert the patch into YCbCr color space, Keep use FRAN indicates whether the frequency
The fifth set of experiments (Ours(keep)) used FRAN throughout the generating process.
5つ目の実験(Ours(keep))では、生成プロセス全体でFRANを使用した。
0.75
The sixth set of experiments (Ours) only utilized FRAN in the first seven epochs.
第6の実験セット(ours)は、最初の7つの時代においてフランのみを利用した。
0.60
The results of ablation experiments were depicted in table 1.
アブレーション実験の結果は表1に示されている。
0.78
4.3.1 Robustness against JPEG compression
4.3.1 JPEG圧縮に対するロバスト性
0.55
According to Ian et al , JPEG compression [1], which removes the image’s high-frequency signals, can significantly reduce the perturbability of attacks.
The adversarial image’s effectiveness can be lowered by JPEG compression, which removes the image’s high-frequency signals.
逆画像の有効性はJPEG圧縮によって低下し、画像の高周波信号を除去する。
0.69
8
8
0.42
英語(論文から抽出)
日本語訳
スコア
Running Title for Header
ヘッダーのランニング・タイトル
0.77
To identify how JPEG compression affects adversarial patch attacks, we saved the patch in JPEG format and reloaded it to calculate their attack success rates on the test dataset.
So we chose to use FRAN duing the first several epochs.
そこで、最初の何回かのエポックでFRANを使うことにしたのです。
0.47
When attacking different detectors we will choose diiferent epoch to stop using FRAN.
異なる検出器を攻撃する際には、FRANの使用を止めるためにダイアリフェレントエポックを選択する。
0.56
At the same time, converting the patch into YCbCr color space and extracting frequency information using Fourier transform during the training phase result in a patch with a greater attack impact.
Adversarial objectness gradient attacks in real-time object detection systems.
リアルタイム物体検出システムにおける逆対象性勾配攻撃
0.70
In 2020 Second IEEE International Conference on Trust, Privacy and Security in Intelligent Systems and Applications (TPS-ISA), pages 263–272.
2020年の第2回IEEE International Conference on Trust, Privacy and Security in Intelligent Systems and Applications (TPS-ISA), page 263–272。 訳抜け防止モード: 2020年、第2回ieee international conference on trust, privacy and security in intelligent systems and applications (tps - isa) が開催された。 263-272頁。
0.59
IEEE, 2020.
IEEE、2020年。
0.90
[17] James W. Cooley and John W. Tukey.
17] ジェームズ・w・クーリーと ジョン・w・タキー
0.63
An algorithm for the machine calculation of complex fourier series.
複素フーリエ級数の計算機計算のためのアルゴリズム
0.65
Mathematics of Computation, 19:297–301, 1965.
計算数学 19:297–301, 1965。
0.77
[18] Diederik P Kingma and Jimmy Ba.
[18]Diederik P KingmaとJimmy Ba。
0.40
Adam: A method for stochastic optimization.
Adam: 確率最適化の方法です。
0.69
arXiv preprint arXiv:1412.6980,
arXiv preprint arXiv:1412.6980,
0.33
2014. [19] Ka-Ho Chow, Ling Liu, Mehmet Emre Gursoy, Stacey Truex, Wenqi Wei, and Yanzhao Wu.
Understanding object detection through an adversarial lens.
対向レンズによる物体検出の理解
0.72
In European Symposium on Research in Computer Security, pages 460–481.
ヨーロッパコンピュータセキュリティ研究シンポジウム (European Symposium on Research in Computer Security) 460-481頁。
0.69
Springer, 2020.
スプリンガー、2020年。
0.59
[20] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick.
ツン・ヨン、マイケル・ミア、セルゲイ・ベロンギー、ジェームズ・ヘイズ、ピエトロ・ペローナ、デヴァ・ラマナン、ピョートル・ドラール、C・ローレンス・ジトニック。 訳抜け防止モード: [20 ]ツン - 李林、マイケル・ミア、セルゲイ・ベロンギー James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár そしてC・ローレンス・ジトニック。
0.78
Microsoft coco: Common objects in context.
Microsoft Coco: コンテキスト内の共通オブジェクト。
0.83
In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision – ECCV 2014, pages 740–755, Cham, 2014.
David Fleet, Tomas Pajdla, Bernt Schiele, Tinne Tuytelaars, editors, Computer Vision – ECCV 2014 page 740–755, Cham, 2014 訳抜け防止モード: デビッド・フリートでは、トマス・ペイドラ、ベルント・シエレ、ティン・トゥイテラーズが出演した。 編集部:eccv 2014, pp. 740-755, cham, 2014。
0.42
Springer International Publishing.
Springer International Publishing(英語)
0.71
[21] Mark Everingham, S. M. Ali Eslami, Luc Van Gool, Christopher K. I. Williams, John M. Winn, and Andrew Zisserman.
Mark Everingham氏、S.M. Ali Eslami氏、Luc Van Gool氏、Christopher K.I. Williams氏、John M. Winn氏、Andrew Zisserman氏。
0.79
The pascal visual object classes challenge: A retrospective.
パスカルなビジュアルオブジェクトクラスへの挑戦: レトロスペクティブ。
0.68
International Journal of Computer Vision, 111:98–136, 2014.
International Journal of Computer Vision, 111:98–136, 2014
0.43
[22] Alexey Bochkovskiy, Chien-Yao Wang, and Hong-Yuan Mark Liao.
[22]Alexey Bochkovskiy、Chien-Yao Wang、Hong-Yuan Mark Liao。
0.39
Yolov4: Optimal speed and accuracy of
Yolov4: 最適なスピードと精度
0.90
object detection. ArXiv, abs/2004.10934, 2020.
物体検出 arxiv、abs/2004.10934、2020年。
0.53
[23] Tsung-Yi Lin, Priya Goyal, Ross B. Girshick, Kaiming He, and Piotr Dollár.
[23]通義林、プリヤ・ゴヤル、ロス・B・ギルシック、カイミング・ヘ、ピオトル・ドラール。
0.47
Focal loss for dense object detection.
密度物体検出のための焦点損失
0.79
2017 IEEE International Conference on Computer Vision (ICCV), pages 2999–3007, 2017.
2017 IEEE International Conference on Computer Vision (ICCV), page 2999–3007, 2017