論文の概要、ライセンス

# (参考訳) 畳み込みニューラルネットワークを用いたドローン検出 [全文訳有]

Drone Detection Using Convolutional Neural Networks ( http://arxiv.org/abs/2107.01435v1 )

ライセンス: CC BY 4.0
Fatemeh Mahdavi, Roozbeh Rajabi(参考訳) 画像処理では、航空目標、特にuavを検出し追跡することが不可欠である。 本稿では,魚眼カメラを用いて飛行中のドローンを検出する。 オブジェクトの診断と分類の分野では、この領域における迅速かつ著しい進歩の進展を妨げる問題は常に数多く存在する。 過去数十年間、畳み込みニューラルネットワークやサポートベクターマシンなどの高度な分類手法が開発されてきた。 本研究では,畳み込みニューラルネットワーク(cnn),サポートベクターマシン(svm),近接近傍の3つの分類法を用いてドローンの検出を行った。 その結果, CNN, SVM, および近隣諸国でそれぞれ95%, 88%, 80%の精度が得られた。 同じ実験条件の他の分類器と比較すると、畳み込みニューラルネットワーク分類器の精度は良好である。

In image processing, it is essential to detect and track air targets, especially UAVs. In this paper, we detect the flying drone using a fisheye camera. In the field of diagnosis and classification of objects, there are always many problems that prevent the development of rapid and significant progress in this area. During the previous decades, a couple of advanced classification methods such as convolutional neural networks and support vector machines have been developed. In this study, the drone was detected using three methods of classification of convolutional neural network (CNN), support vector machine (SVM), and nearest neighbor. The outcomes show that CNN, SVM, and nearest neighbor have total accuracy of 95%, 88%, and 80%, respectively. Compared with other classifiers with the same experimental conditions, the accuracy of the convolutional neural network classifier is satisfactory.
公開日: Sat, 3 Jul 2021 13:26:06 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2020 6th Iranian Conference on Signal Processing and Intelligent Systems (ICSPIS) 第6回イラン信号処理・インテリジェントシステム会議(ICSPIS)に参加して 0.74
Drone Detection Using Convolutional Neural 畳み込みニューラルネットワークを用いたドローン検出 0.56
Networks Fatemeh Mahdavi ネットワーク Fatemeh Mahdavi 0.82
Roozbeh Rajabi Roozbeh Rajabi 0.85
Faculty of Electrical and Computer Engineering 電気・コンピュータ工学専攻 0.57
Faculty of Electrical and Computer Engineering 電気・コンピュータ工学専攻 0.57
Qom University of Technology (QUT) Qom University of Technology (QUT) 0.85
Qom University of Technology (QUT) Qom University of Technology (QUT) 0.85
Qom, Iran mahdavi.f@qut.ac.ir イランのqom mahdavi.f@qut.ac.ir 0.60
Qom, Iran rajabi@qut.ac.ir イランのqom rajabi@qut.ac.ir 0.66
Abstract— In image processing, it is essential to detect and track air targets, especially UAVs. 抽象 - 画像処理では、特にUAVを検知し、追跡することが不可欠である。 0.68
In this paper, we detect the flying drone using a fisheye camera. 本稿では,魚眼カメラを用いて飛行中のドローンを検出する。 0.76
In the field of diagnosis and classification of objects, there are always many problems that prevent the development of rapid and significant progress in this area. オブジェクトの診断と分類の分野では、この領域における迅速かつ著しい進歩の進展を妨げる問題は常に数多く存在する。 0.77
During the previous decades, a couple of advanced classification methods such as convolutional neural networks and support vector machines have been developed. 過去数十年間、畳み込みニューラルネットワークやサポートベクターマシンなどの高度な分類手法が開発されてきた。 0.66
In this study, the drone was detected using three methods of classification of convolutional neural network (CNN), support vector machine (SVM), and nearest neighbor. 本研究では,畳み込みニューラルネットワーク(cnn),サポートベクターマシン(svm),近接近傍の3つの分類法を用いてドローンの検出を行った。 0.77
The outcomes show that CNN, SVM, and nearest neighbor have total accuracy of 95%, 88%, and 80%, respectively. その結果, CNN, SVM, および近隣諸国でそれぞれ95%, 88%, 80%の精度が得られた。 0.67
Compared with other classifiers with the same experimental conditions, the accuracy of the convolutional neural network classifier is satisfactory. 同じ実験条件の他の分類器と比較すると、畳み込みニューラルネットワーク分類器の精度は良好である。 0.78
Keywords—Drone Detection; Bird Detection; Classification; Convolutional Neural Network; Support Vector Machine; Nearest Neighbor キーワード-Drone Detection, Bird Detection, Classification, Convolutional Neural Network, Support Vector Machine, Nearest Neighbor 0.88
I. INTRODUCTION With the fast advancement within the field of unmanned vehicles and innovation utilized to build them, the number of drones produced for military, commercial, or recreational purposes time passes. I 導入 無人機の分野における急速な進歩と、その製造に利用される技術革新により、軍用、商業用、またはレクリエーション目的で生産されるドローンの数は時を経る。 0.50
This circumstance presents urgent protection and security dangers when cameras or weapons are appended to the drones. この状況は、ドローンにカメラや武器が付加されると、緊急の保護とセキュリティの危険をもたらす。 0.63
Thus, detection of the position and properties, similar to speed and track, of drones before an undesirable happening, has gotten to be vital したがって、望ましくない現象が起こる前にドローンの位置と特性を、速度や追跡と同様に検出することが不可欠である。 0.66
increments pointedly as increments―increments 0.57
. [1 ] . . [1 ] . 0.85
[2 ] Fig. [2 ] フィギュア。 0.64
1 make it challenging to detect, identify, and correctly localize them because of high variability among the objects of a similar kind, object detection in the physical environment is an onerous duty, furthermore changes in appearance, the efficiency of a detector. 1 類似の物体間の変動が大きいため、物理的環境における物体検出は厄介な義務であり、さらに外観の変化や検出器の効率が変化しているため、それらを検出、識別、正確にローカライズすることが難しくなる。 0.76
Most of the detectors perform ineffectively within the case of changes to the scale and distortion ほとんどの検出器は、スケールと歪みの変化の場合に非効率に機能する 0.88
illumination, and perspective reduce 照明と視点 reduce~ 0.64
. [2 ] Classifications can be divided into available and advanced categories. . [2 ] 分類は利用可能なカテゴリと上級カテゴリに分けられる。 0.83
General classification methods include Maximum likelihood classification (MLC) and Minimum distance classification (MDC). 一般分類には、最大度分類(mlc)と最小距離分類(mdc)が含まれる。 0.77
Advanced classifications, artificial neural networks (ANNs), Decision trees, support vector machines, and object-oriented classifications can also be mentioned 高度な分類、人工知能ニューラルネットワーク(ANN)、決定木、サポートベクターマシン、オブジェクト指向分類についても言及できる。 0.76
[3] . In general, the classification is done in several stages in such a way that first the required data, which are called train data, are collected in various ways. [3] . 一般に、この分類は、まず必要なデータ(列車データ)が様々な方法で収集されるように、いくつかの段階で行われる。 0.81
then the selected classification algorithm is applied to these images, and the whole Images are classified Then the accuracy of the desired classification can be examined using test data 選択した分類アルゴリズムをこれらの画像に適用し、画像全体を分類すると、所望の分類の精度をテストデータを用いて調べることができる。 0.86
[3] . The remains of the paper are as follows: In Section II, it presents a brief of related work. [3] . 論文の遺構は以下の通りである: 第2節では、関連する著作を簡潔に提示する。 0.76
Section III, shows the proposed methods. 第3節では提案手法を示す。 0.61
Analysis of the simulation results is presented in Section IV. シミュレーション結果の解析は、第4節で示される。 0.75
Then, some conclusions are discussed in Section V. その後、いくつかの結論が第5節で議論される。 0.44
Speed and move capability of drones, their similarity to ドローンの速度と移動能力, その類似性 0.58
birds in appearance when seen from a distance, as shown in 図のように、遠くから見ると外観の鳥 0.72
Fig. 1. Drone Detection [1] フィギュア。 1. ドローン検出 [1] 0.65
英語(論文から抽出)日本語訳スコア
2020 6th Iranian Conference on Signal Processing and Intelligent Systems (ICSPIS) 第6回イラン信号処理・インテリジェントシステム会議(ICSPIS)に参加して 0.74
II. RELATED WORK The author of [4] proposed a drone detection solution based on the Radio Frequency (RF) emitted during the live communication session between the drone and its controller using a Deep Learning (DL) the Convolutional Neural Network (CNN). II。 関連作業 The author of [4] proposed a drone detection solution based on the Radio Frequency (RF) emited during the live communication session between the drone and its controller using a Deep Learning (DL) the Convolutional Neural Network (CNN)。 0.71
Mejias et al. Mejias et al 0.58
used morphological pre-preparing and Hidden Markov Model channels to distinguish and track small unmanned vehicles [5 ] 小型無人車両の識別と追跡に形態学的準備と隠れマルコフモデルチャネルを使用する[5] 0.77
technique, namely, . In [6], the authors presented a comprehensive review of the literature, addressing the concept of drone detection through object detection and classification using Machine Learning technologies. 技術、つまり、 . 著者らは[6]で、オブジェクト検出と機械学習技術を用いた分類によるドローン検出の概念を論じ、文献の包括的なレビューを行った。 0.77
Essentially, the application of machine learning facilitate the drone detection in a binary classification model as “drone” or “no drone”. 基本的に、機械学習の応用は、二分分類モデルのドローン検出を“drone”あるいは“no drone”として促進する。 0.80
However, some research in the literature goes beyond the traditional classification to a multiclass classification which identifies drone types. しかし、文献におけるいくつかの研究は、従来の分類からドローンタイプを識別するマルチクラス分類まで及んでいる。 0.70
[7 ] Goke et al utilized cascaded boosted classifiers with some . [7 ] Gokeらでは、カスケード強化分類器を一部で使用した。 0.67
Using a Doppler radar system, local highlight descriptors Michael et al [8] detected a flying drone in which data would be gathered by a two-channel Doppler radar and used for Range-Doppler-azimut h processing. ドップラーレーダーシステムを使用して、地元のハイライトディスクリプタMichael et al [8]は、2チャンネルドップラーレーダーでデータを収集し、レンジ・ドップラー・方位処理に使用される飛行ドローンを検出した。
訳抜け防止モード: ドップラーレーダーシステム 地元のハイライト解説者Michael et al [8 ]は、2チャンネルのドップラーレーダーでデータを収集する飛行ドローンを検出した Range - Doppler - azimuth処理に使用しています。
0.76
In [9], the drone is detected using a convolutional neural network by audio signals received by the microphone. 9]では、マイクが受信した音声信号により畳み込みニューラルネットワークを用いてドローンを検出する。 0.78
Because the drone's harmonic properties are different from objects such as motorcycles, etc. ドローンの高調波特性は、オートバイなどの物体とは異なるためです。 0.65
that make similar noises, it has used the Short-Time Fourier Transform (STFT) to extract features. 同様のノイズを発生させるため、STFT(Short-Time Fourier Transform)を使用して特徴を抽出している。 0.69
In [10], drone is detected using frequency-modulated continuous wave (FMCW) radar system. 10]では、周波数変調連続波(FMCW)レーダーシステムを用いてドローンを検出する。 0.79
The system uses antennas with a frequency band of 11 to 11.15 GHz to produce a linear wave of sawtooth antennas with a gain of 33.7dBi. このシステムは、周波数帯域が11から11.15 GHzのアンテナを使用して、33.7dBiのソートゥースアンテナの線形波を生成する。 0.77
Metal holes are used between and on both sides of the antenna to minimize path interference. 金属孔はアンテナの両側と両側に使われ、経路干渉を最小限に抑える。 0.80
In this method, the drone is detected at a distance of more than 500 meters. この方法では、ドローンは500メートル以上の距離で検出される。 0.63
There are several methods for detecting Drones. ドローンを検出する方法はいくつかある。 0.64
In this article, machine learning strategies such as, Convolutional Neural Network (CNN), K-Nearest Neighbor (KNN), Support Vector Machine (SVM) are utilized and then compared. 本稿では、畳み込みニューラルネットワーク(CNN)、K-Nearest Neighbor(KNN)、Support Vector Machine(SVM)といった機械学習戦略を利用して比較する。 0.73
III. METHODS As mentioned in this article, machine learning strategies such as, convolutional neural network, support vector machine, and nearest neighbor, have been utilized to detect drones. III。 方法 本稿では、畳み込みニューラルネットワーク、サポートベクターマシン、および最も近い隣人といった機械学習戦略をドローンの検出に利用します。
訳抜け防止モード: III。 方法 この記事で述べたように、機械学習の戦略は、 畳み込みニューラルネットワーク、サポートベクターマシン、および最も近い隣人 ドローンの検出に利用されています
0.62
In this segment, the presentation of the proposed methods will be inspected. このセグメントでは,提案手法の提示について検討する。 0.66
The characteristics of the layers used in CNN will also be stated. CNNで使用されるレイヤの特性についても述べます。 0.71
A. K-Nearest Neighbor A.K-Nearest Neighbor 0.64
The k-nearest neighbor is an optimization issue to discover the nearest dots in metric spaces. k-アレスト近傍は距離空間の最も近い点を発見する最適化問題である。 0.69
The nearest neighbor algorithm is used as the first classification model because this model is simple and is robust against a set of noisy data and is also useful and applicable for a large data set. このモデルは単純で、ノイズの多いデータの集合に対して頑健であり、また大きなデータセットにも有用で適用できるため、最も近い隣接アルゴリズムが第1の分類モデルとして用いられる。 0.79
It is the form that assigns data that does not belong to a category to the group that has the most data around anonymous data. これは、匿名データに関する最も多くのデータを持つグループにカテゴリに属さないデータを割り当てる形式である。 0.72
In Fig 2, using the 16-NN rule, the point denoted by a black dot is classified into the class of the blue points. fig 2 では、16-nn の規則を用いて、黒点で示される点を青い点のクラスに分類する。 0.71
Out of the sixteen nearest neighbors, five are red, and eleven are blue. 最寄りの16人のうち、5人は赤、11人は青である。 0.70
The circle indicates the area within which the sixteen nearest neighbors lie ]11[ . 円は、最も近い16の辺が ]11[..] にある領域を示す。 0.65
Fig. 2. 16- Nearest Neighbor フィギュア。 2. 16-隣人 0.65
B. Support Vector Machine B。 サポートベクトルマシン 0.78
In a variety of situations, we need to categorize the information we have. さまざまな状況において、私たちは情報を分類する必要があります。 0.79
In machine learning, this is called classification. 機械学習では、これを分類と呼ぶ。 0.83
A support vector machine (SVM) is a set of monitoring algorithms that analyzes data. サポートベクターマシン(svm)は、データを分析する一連の監視アルゴリズムである。 0.81
In SVM, some labeled data must be used to classify information . SVMでは、情報を分類するためにラベル付きデータを使用する必要があります。 0.56
In general, data in two-dimensional space is separated by a line in three-dimensional space by a plane, and in n-dimensional space by a hyperplane. 一般に、二次元空間内のデータは平面による三次元空間内の直線と超平面によるn次元空間で分離される。 0.87
[21] The Support vector is closest data to the decision boundary, and margin is also the distance of the support vectors to the decision boundary. [21] 支持ベクトルは決定境界に最も近いデータであり、マージンは支持ベクトルと決定境界との間の距離でもある。 0.80
The goal is maximize the distance of the support vectors from the decision boundary. 目標は、決定境界からの支持ベクトルの距離を最大化することである。 0.79
Relation (1) represent the decision boundary equation that w is slope and b is bias of line. 関係 (1) は、w が傾き、b が直線の偏りである決定境界方程式を表す。 0.80
The purpose of determining w and b is not only to classify the data correctly but also to have the decision distance as far as possible with the support vectors which is expressed mathematically in equation (2) and (3) w と b を決定する目的は、データを正しく分類するだけでなく、方程式 (2) と (3) で数学的に表現される支持ベクトルを用いて可能な限り決定距離を持つことである。 0.88
[3 ] wt𝑥+b=0 [3 ] wtx+b=0 0.62
x=(xt,yt) yt= { x=(xt,yt) yt= { 0.96
+1 ,if xt∈c1 -1 ,if xt∈c2 +1 , if xthtmlc1 -1 , if xthtmlc2 0.51
} { wt𝑥𝑡+b ≥+1 ,for yt=+1 wt𝑥𝑡+b ≥-1 ,for yt= -1 } { wtxt+b ≥+1 , yt=+1 wtxt+b ≥-1 , yt= -1 0.79
} (1) (2) (3) } (1) (2) (3) 0.85
X is a point on the decision boundary, and w is vector Thus, by finding w and b, the x は決定境界上の点であり、w はベクトルであるので、w と b を見つけることにより、その点となる。
訳抜け防止モード: X は決定境界上の点である。 w はベクトルなので w と b を見つけることで
0.74
for determine slope decision boundary equation can be obtained. 傾き決定境界方程式が得られます 0.56
[31] . [31] . 0.85
英語(論文から抽出)日本語訳スコア
2020 6th Iranian Conference on Signal Processing and Intelligent Systems (ICSPIS) 第6回イラン信号処理・インテリジェントシステム会議(ICSPIS)に参加して 0.74
C. Convolutional Neural Network C.畳み込みニューラルネットワーク 0.83
Convolutional neural networks (CNN) are used for analysis in machine learning. 畳み込みニューラルネットワーク(CNN)は機械学習の分析に使用される。 0.84
This method is very efficient and is one of the most common ways in various applications of computer vision. この手法は非常に効率的であり、コンピュータビジョンの様々な応用において最も一般的な方法の1つである。 0.66
Neural network architecture is presented in different forms depending on the type and number of layers, that the most common of which are multilayer perceptron ]3 [. ニューラルネットワークアーキテクチャは、層の種類や数によって異なる形式で表現され、最も一般的なものは多層パーセプトロン[3]である。 0.69
The function of this method is based on Equation (4), in which θ represents the threshold, 𝑤𝑡 represents the weight vector of the coefficients, and x represents the input vector ]3[. この方法の関数は θ がしきい値を表し、wt が係数の重みベクトルを表し、x が入力ベクトル ]3[ を表す方程式 (4) に基づいている。 0.76
g=f (wtx + θ) g=f(wtx + θ) 0.91
(4) A multilayer perceptron consists of an input layer, a hidden layer, and an output layer, each containing a certain number of neurons. (4) 多層パーセプトロンは、入力層、隠蔽層、出力層から構成され、それぞれ一定の数のニューロンを含む。
訳抜け防止モード: (4) 多層パーセプトロンは、入力層と隠れ層とからなる。 そして出力層は、それぞれに一定の数のニューロンを含む。
0.79
The choice of the number of hidden layers and neurons in each of them is significant because if their number is small, the network will face a lack of learning resources to solve complex problems. それぞれの層に隠された層やニューロンの数を選択することは、それらが小さいと、複雑な問題を解決するための学習リソースが不足するため、非常に重要である。 0.72
if it is high, it will cause Network training time increases ]14[. 高い場合、ネットワークトレーニング時間が14[.]増加する。 0.54
In total, a CNN network comprises of three primary layers: the convolution layer, the pooling layer, and the fully connected layer. 全体として、cnnネットワークは畳み込み層、プーリング層、完全接続層という3つの主要な層からなる。 0.70
The pooling layer reduces the size, also decreases the number of parameters, and reduces the volume of calculations, which in turn helps to control the fitting phenomenon. プール層はサイズを減らし、パラメータの数を減らし、計算量を減らし、その結果、フィッティング現象を制御するのに役立ちます。
訳抜け防止モード: プーリング層はサイズを減少させ、パラメータの数も減少させる。 そして計算量を減らし、それがフィッティング現象を制御するのに役立ちます。
0.73
In the j map, the 𝑎𝑖𝑗 attribute can be defined in the ith layer as follows : j マップでは、aij 属性は i 番目の層で次のように定義できる。 0.65
ai=f (wn ∗ ai−1+bij) ai=f (wn ∗ ai−1+bij) 0.63
(5) Where f (. ) (5) ここで f(.) 0.79
is an activation function described as f (x) = max (0, x), it is called the ReLU layer. f (x) = max (0, x) と記述される活性化関数であり、これはReLU層と呼ばれる。 0.89
w is the core of the filters, n is the index of the feature map set that Attached to the feature map in (i-1) layer. wはフィルタの中核であり、nは(i-1)層のフィーチャーマップにアタッチされたフィーチャーマップセットのインデックスである。 0.82
∗ is the convolution operator, and 𝑏𝑖𝑗 is the bias value of the current feature map. ∗ は畳み込み作用素であり、bij は現在の特徴写像のバイアス値である。 0.59
w and b must be trained to be able to extract better features . w と b はより良い特徴を抽出できるように訓練されなければならない。 0.66
In each convolutional neural network, there are two steps to preparing. 各畳み込みニューラルネットワークには、準備すべきステップが2つある。 0.71
Feedforward stage and backpropagation stage. フィードフォワードステージとバックプロパゲーションステージ。 0.67
In the Feedforward stage, the input image is fed to the system. フィードフォワード段階では、入力画像がシステムに供給される。 0.69
This operation is nothing but multiplying the point between the input and the parameters of each neuron and finally performing convolutional operations in each layer. この操作は、各ニューロンの入力とパラメータの間の点を乗じて、最終的に各層で畳み込み操作を行うだけである。 0.76
The network output is then calculated. そして、ネットワーク出力を算出する。 0.77
1) Proposed CNN Structure We propose CNN structure as indicated by the multifaceted nature of our information. 1) 提案したCNN構造は, 情報の多面的性質によって示されるCNN構造を提案する。 0.69
According to Fig 3, the system consist of three max-pooling layers, three convolution layers and two fully connected layers. 図3によると、システムは3つの最大プール層、3つの畳み込み層、2つの完全に接続された層で構成される。 0.57
The function applied to the data is soft max. データに適用される関数はsoft maxである。 0.83
Epoch was also considered 80. エポックも80であった。 0.70
The epochs are repeated until the error reaches a fixed value and does not change . エラーが固定値に達するまでエポックは繰り返され、変化しない。 0.61
IV. RESULTS A. Datasets IV。 結果 A.データセット 0.64
The proposed methods use films in which there are drones and birds. 提案手法は、ドローンや鳥が登場するフィルムを用いる。 0.70
These films are converted into frames by MATLAB software. これらのフィルムはMATLABソフトウェアによってフレームに変換される。 0.66
After extracting the video frames, the ones that do not have a drone and a bird are not used, and in the other frames, we separate the images of the drone and the birds and put them in two separate folders, one folder containing the images of drones and the other include images of birds. ビデオフレームを抽出した後、ドローンと鳥のいないものを使用せず、他のフレームでは、ドローンと鳥の画像を分離し、2つの別々のフォルダーに配置し、ドローンの画像を含むフォルダーと、鳥の画像を含むフォルダーを配置する。 0.62
As a result of this operation, 712 images of drones and birds were collected. この作戦の結果、ドローンと鳥の712枚の画像が収集された。 0.75
When choosing a set of images, it should be noted that the images in question should not have marginal and unimportant goals as much as possible, because these goals can destroy the performance of the program [15] . 画像の集合を選択する際には、これらの目標がプログラムの性能を損なう可能性があるため、問題の画像が極端に重要でない目標を持つべきではないことに注意する必要がある。 0.77
Eventually, about 80% of this data is utilized for training and 20% for testing. 最終的に、このデータの約80%がトレーニングに、20%がテストに利用されます。 0.74
In this way, images of 500 birds and drones are randomly selected and provided to the algorithm for training at each execution. これにより、500羽の鳥とドローンの画像がランダムに選択され、各実行の訓練アルゴリズムに提供される。 0.76
The residue of the images are used for testing . イメージの残差はテストに使用されます。 0.76
This algorithm is implemented in the MATLAB software このアルゴリズムはMATLABソフトウェアで実装されている 0.74
environment . TABLE I. 環境。 テーブルI。 0.59
HOG FEATURE EXTRACTION FOR SAMPLE DRONE AND サンプルドローンとホッグ特徴抽出 0.38
BIRD Image Feature Extraction BIRD 画像 特徴抽出 0.78
B. Pre processing Due to the different sizes of the images in the bird and drone data, before executing the main parts of the algorithm, all the images are resized to the same dimensions (48 × 48) to process the algorithm better. B.前処理 鳥とドローンのデータで画像のサイズが異なるため、アルゴリズムの主要部分を実行する前に、すべての画像は同じ寸法(48×48)にリサイズされ、アルゴリズムをより良く処理する。 0.79
1) Extract feature The purpose of feature extraction is to transform the image into a set of feature vectors that can describe the image well and be used in the classification and recognition phase. 1) 特徴抽出 特徴抽出の目的は、画像が適切に記述され、分類および認識フェーズで使用できる特徴ベクトルの集合に変換することである。 0.76
Table I shows how to extract features from drones and birds in the database for SVM and KNN methods (the directional gradient histogram feature is used [16]). 表1は、svmとknメソッドのデータベースで、ドローンや鳥から機能を抽出する方法を示しています(方向勾配ヒストグラム機能を使用します [16])。 0.69
CNN can leave out complex data pre-processing and extract feature automatically [17]. CNNは複雑なデータ前処理と抽出機能を自動で残すことができます [17]。 0.70
英語(論文から抽出)日本語訳スコア
2020 6th Iranian Conference on Signal Processing and Intelligent Systems (ICSPIS) 第6回イラン信号処理・インテリジェントシステム会議(ICSPIS)に参加して 0.74
Fig. 3. The proposed CNN structure フィギュア。 3. 提案するCNN構造 0.64
To test the results, different criteria have been used. 結果をテストするために、異なる基準が使用されている。 0.63
These Finally, the general process used in this paper is shown in これら 最後に,本稿で用いられる一般的なプロセスについて述べる。 0.70
criteria include: 基準は以下の通りです 0.47
Fig. 4 • Accuracy: The number of samples that the system has フィギュア。 4 •精度:システムが持っているサンプルの数 0.70
successfully detected. • Sensitivity: How many of the available correct 発見に成功。 •感度:利用可能な正解数 0.61
samples have been selected. サンプルが選ばれた。 0.80
• Precision: How many of the selected samples are valid. •精度: 選択されたサンプルのいくつが有効か。 0.85
These evaluation metric are given in formulas 6 - 8 . これらの評価基準は式 6 - 8 で与えられる。 0.67
TP :True positive - accurate positive forecast. tp : true positive - accurate positive forecast。 0.74
TN :True negative - TN :True negative - 0.85
inaccurate positive forecast . 不正確なポジティブ予測 0.76
FP :False positive - accurate negative forecast. fp:false positive - accurate negative forecast。 0.78
FN :False negative - inaccurate negative forecast. FN : 偽陰性- 不正確な負の予測 0.68
Accuracy= TP+TN 正確性= TP+TN 0.55
TP+FP+FN+TN TP+FP+FN+TN 0.29
TP Sensitivity= Precision= TP 感度= 精度= 0.70
TP+FN TP TP+FP TP+FN TP TP+FP 0.68
(6) (7) (8) (6) (7) (8) 0.85
Table II shows the classification test using the test data. 表2は、テストデータを用いた分類テストを示す。 0.77
As it turns out, convolutional neural network classifiers perform better in drone detection than other classifiers. その結果、畳み込みニューラルネットワーク分類器は、他の分類器よりもドローン検出に優れていることがわかった。 0.57
TABLE II. COMPARISON RESULTS OF THE CLASSIFIERS テレビII。 分類器の比較結果 0.42
Classifier Sensitivity Precision Accuracy 分類 感度 精度 精度 0.72
)%( )%( )%( )%( )%( )%( 0.85
CNN SVM KNN CNN SVM KNN 0.85
93 91 94 97 93 91 94 97 0.85
86 74 95 88 86 74 95 88 0.85
80 Fig. 4. 80 フィギュア。 4. 0.71
Flowchart of the proposed drone detection algorithm 提案するドローン検出アルゴリズムのフローチャート 0.71
C. Operation of Classification According to Fig 5.a, in exceptional cases such as the drone being halfway, since it is very similar to a bird, even the CNN algorithm is not able to detect the drone and misidentifies the bird . c.分類の操作 fig 5.aによると、ドローンのような例外的なケースでは、鳥と非常によく似ているため、cnnアルゴリズムでさえドローンを検知できず、鳥を誤認することができない。 0.80
Fig 5.b, because the two birds are very close to each other, the KNN classifier misdiagnoses the drone but is correctly identified by CNN and SVM. 図5.bの2羽の鳥は互いに非常に近いため、KNN分類器はドローンを誤認するが、CNNとSVMによって正しく識別される。 0.67
As shown in Table II, KNN performs worse than SVM and CNN . 表IIに示すように、KNNはSVMやCNNよりもパフォーマンスが悪い。 0.70
a b Fig. a b フィギュア。 0.64
5. Examples of undetectable samples 5. 検出不能サンプルの例 0.87
英語(論文から抽出)日本語訳スコア
2020 6th Iranian Conference on Signal Processing and Intelligent Systems (ICSPIS) 第6回イラン信号処理・インテリジェントシステム会議(ICSPIS)に参加して 0.74
REFERENCES [1] C. Aker and S. Kalkan, "Using deep networks for drone detection," in 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), 2017, pp. 参考 [1] c. aker and s. kalkan, "using deep networks for drone detection" in 2017 14th ieee international conference on advanced video and signal based surveillance (avss), 2017 pp。
訳抜け防止モード: 参考 [1 ]C. Aker と S. Kalkan, ディープネットワークを使ってドローンを検知する」 2017年の第14回IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS) 2017年、p。
0.64
1-6. [2] M. Saqib, S. D. Khan, N. Sharma, and M. Blumenstein, "A study on detecting drones using deep convolutional neural networks," in 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), 2017, pp. 1-6. [2] M. Saqib, S. D. Khan, N. Sharma, M. Blumenstein, "A study on Drone using Deep Convolutional Neural Network" in 2017 14th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), 2017 pp. 2017 0.76
1-5. [3] A. Richards J., Remote sensing digital image analysis, fifth ed. 1-5. [3] a. richards j., remote sensing digital image analysis, fifth ed。 0.74
springer, 2013 p. 494 springer, 2013 p. 494 0.99
[4] S. Al-Emadi and F. Al-Senaid, "Drone Detection Approach Based on Radio-Frequency Using Convolutional Neural Network," 2020 IEEE International Conference on IoT, and Enabling Technologies (ICIoT), Doha, Qatar, 2020, pp. S. Al-Emadi and F. Al-Senaid, "Drone Detection Approach Based Based Radio-Frequency Using Convolutional Neural Network", 2020 IEEE International Conference on IoT, and Enabling Technologies (ICIoT), Doha, Qatar, 2020, pp。 0.85
29-34, doi: 10.1109/ICIoT48696.2 020.9089489. 29-34, doi: 10.1109/ICIoT48696.2 020.9089489 0.47
Informatics, [5] L. Mejias, S. McNamara, J. Lai, and J. Ford, "Vision-based detection and tracking of aerial targets for UAV collision avoidance," in 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2010, pp. 情報学 [5]L. Mejias, S. McNamara, J. Lai, J. Ford, "Vision-based detection and tracking of air target for UAV collision avoidance" in 2010 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2010, pp。 0.73
87-92. [6] B. Taha and A. Shoufan, "Machine Learning-Based Drone Detection and Classification: State-of-the-Art in Research," in IEEE Access, vol. 87-92. B. Taha and A. Shoufan, "Machine Learning-Based Drone Detection and Classification: State-of-the-Art in Research", Vol. IEEE Access 0.79
7, pp. 138669-138682, 2019, doi: 10.1109/ACCESS.2019. 2942944. 7, pp。 138669-138682, 2019, doi: 10.1109/ACCESS.2019. 2942944 0.69
[7] G. U. o. F. Gokc ¨ ¸e, E. S¸ ahin, and S. Kalkan. [7] G. U. o. F. Gokc ., E. S. ahin, S. Kalkan。 0.83
, "Vision-Based Detection and Distance Estimation of Micro Unmanned Aerial Vehicles," 2015. 2015年、"vision-based detection and distance estimation of micro drone aircraft"を開催。 0.72
[8] M. Jian, Z. Lu, and V. C. Chen, "Drone detection and tracking based on phase-interferometri c Doppler radar," in 2018 IEEE Radar Conference (RadarConf18), 2018, pp. M. Jian, Z. Lu, V. C. Chen, "Drone detection and tracking based on phase-interferometri c Doppler radar" in 2018 IEEE Radar Conference (RadarConf18, 2018, pp。 0.81
1146-1149. 1146-1149. 0.71
[9] Y. Seo, B. Jang, and S. Im, "Drone Detection Using Convolutional Neural Networks with Acoustic STFT Features," in 2018 15th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), 2018, pp. 9] Y. Seo, B. Jang, S. Im, "Drone Detection Using Convolutional Neural Networks with Acoustic STFT Features" in 2018 15th IEEE International Conference on Advanced Video and Signal Based Surveillance (AVSS), 2018, pp。 0.83
1-6. [10] Park and S. Park, "Configuration of an X-band FMCW radar targeted for drone detection," in 2017 International Symposium on Antennas and Propagation (ISAP), 2017, pp. 1-6. 10] park and s. park, "configuration of a x-band fmcw radar targeted for drone detection" in 2017 international symposium on antennas and propagation (isap), 2017 pp。
訳抜け防止モード: 1-6. [10 ]Park and S. Park, "Configuration of an X- band FMCW radar aimed for drone detection" 2017年度国際アンテナ・伝搬シンポジウム(ISAP)に参加して 2017年、p。
0.78
1-2. [11] S. Theodoridis and K. Koutroumbas, "Pattern recognition," Academic 1-2. 十一 S. Theodoridis, K. Koutroumbas, "Pattern recognition, Academic 0.74
Press, 2009. [12] R. Fernández, Marcos, José, "Computer vision for Pedestrian detection 2009年、出版。 12] r. fernández, marcos, josé, 「歩行者検出のためのコンピュータビジョン」 0.71
using Histograms of Oriented Gradients," 2014. 2014年、Histograms of Oriented Gradientsを発売。 0.73
[13] A. Keshavarz, Qasemian Yazdi,'' A fast vector machine-based backup algorithm images using spatial correlation'', Electrical Engineering and Computer Engineering Iran, in Persian [13]A. Keshavarz, Qasemian Yazdi,'', A fast vector machine-based backup algorithm image using spatial correlation', Electro Engineering and Computer Engineering Iran, in Persian 0.86
for classifying hyperspectral hyperspectral (複数形 hyperspectrals) 0.49
[14] M. A. a. P. L. Bartlett, Neural network learning: Theoretical M. A. A. P. L. Bartlett, Neural Network Learning: Theory 0.82
foundations. Cambridge university press, 2009. 基礎。 2009年、ケンブリッジ大学出版局。 0.61
[15] N. Dalal, "Finding People in Images and Videos," 07/17 2006. 15] n. dalal, "finding people in images and video", 07/17 2006 0.73
[16] K. Mihreteab, M. Iwahashi, and M. Yamamoto, "Crow birds detection using HOG and CS-LBP," in 2012 International Symposium on Intelligent Signal Processing and Communications Systems, 2012, pp. [16] k. mihreteab, m. iwahashi, m. yamamoto, "crow birds detection using hog and cs-lbp" in 2012 international symposium on intelligent signal processing and communications systems, pp. 2012 0.77
406-409. [17] X. Li, Z. Huang, F. Wang, X. Wang, and T. Liu, "Toward Convolutional Neural Networks on Pulse Repetition Interval Modulation Recognition," IEEE Communications Letters, vol. 406-409. [17] X. Li, Z. Huang, F. Wang, X. Wang, T. Liu, "Toward Convolutional Neural Networks on Pulse Repetition Interval Modulation Recognition", IEEE Communications Letters, vol。 0.80
22, no. 11, pp. 22歳。 11、p。 0.54
2286-2289, 2018. 2286-2289, 2018. 0.84
Table III shows that the more convolutional layers and Epoch, the more accurate the diagnosis, but the more time is needed for training. 表IIIは、より畳み込み層とEpochは、診断がより正確であるが、訓練にはより多くの時間が必要であることを示している。 0.65
It should be noted that this increase will improve performance to some extent, will not have much effect on program performance. この増加によってパフォーマンスがある程度向上し、プログラムのパフォーマンスにはあまり影響しない点に注意が必要だ。 0.79
TABLE III. COMPARISON RESULTS OF CNN BASED ON THE 第3話。 CNNの比較結果 0.38
NUMBER OF LAYERS two Conv layer 層数 2つのConv層 0.46
four Conv layer CNN Properties 4つのConv層 CNNの特性 0.75
60 Epoch 80 Epoch Time 60期 80期 時間 0.64
9min, 56 sec 14 min, 28sec 9分56秒 14分28秒 0.60
Accuracy (%) 85 正確さ (%) 85 0.89
95 The specifications of the system with which the above 95 上記のようなシステムの仕様 0.73
results are obtained are as follows: 結果は以下の通りである。 0.78
• Intel Core i5-4200M (2.5GHZ) • 2 GB DDR3 L Memory • 1TB HDD • Intel Core i5-4200M(2.5GHZ)• 2GB DDR3 Lメモリ• 1TB HDD 0.76
For example, Fig 6 shows a video frame in which the 例えば、Fig 6は、そのビデオフレームを表示します。 0.70
drone is correctly separated from the birds . ドローンは正しく鳥と切り離されている。 0.62
Fig. 6. Drone Detection Using CNN フィギュア。 6. CNNを用いたドローン検出 0.65
V. CONCLUSION V.コンキュレーション 0.76
Today, drones are used for various purposes. 現在、ドローンは様々な用途に使われている。 0.47
These include goals such as protection, passage to small areas, espionage uses, and so on. これには保護、小さな領域への通過、スパイ活動の使用などが含まれる。 0.63
The small size and low noise of the drone make its role more critical. ドローンの小型化と低騒音により、その役割はより重要になる。 0.68
Therefore, drone detection has also become important for security issues. そのため、ドローン検出はセキュリティ問題にも重要になっている。 0.62
In this paper, the proposed algorithm has two stages of training and testing. 本稿では,提案アルゴリズムの学習とテストの2段階について述べる。 0.79
In the training phase, the properties of all the images used were extracted, and a convolutional neural network was trained using these properties. トレーニング段階では,すべての画像の特性を抽出し,これらの特性を用いて畳み込みニューラルネットワークを訓練した。 0.80
Then, in the next step of experiment, the input image was classified by a trained system. そして、実験の次のステップでは、入力画像が訓練されたシステムによって分類される。 0.73
Therefore, the confusion between some similar parts of the drone and the bird was eliminated using the convolutional neural network classification model. そこで, 畳み込みニューラルネットワーク分類モデルを用いて, ドローンの類似部分と鳥の混同を解消した。 0.67
The convolutional neural network model improves the efficiency in comparison of the support vector machine and the nearest neighbor in detecting similar parts of the two objects. 畳み込みニューラルネットワークモデルは、2つのオブジェクトの類似部分を検出する際に、支持ベクトルマシンと最も近い隣人との比較により効率を向上する。 0.73
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。