論文の概要、ライセンス

# (参考訳) 深層学習技術による暗号ポンプとダンプ検出 [全文訳有]

Crypto Pump and Dump Detection via Deep Learning Techniques ( http://arxiv.org/abs/2205.04646v1 )

ライセンス: CC BY 4.0
Viswanath Chadalapaka, Kyle Chang, Gireesh Mahajan, Anuj Vasil(参考訳) 暗号通貨自体が過去10年で驚くべき採用率に達しているにもかかわらず、暗号通貨の不正検出は極めて未調査の問題領域である。 暗号通貨に関する不正行為の中で、ポンプとダンプのスキームが最も一般的である。 株式市場におけるこうした詐欺に関する研究はいくつか行われているが、ラベル付き株式データや暗号通貨分野特有のボラティリティの欠如は、この問題領域に対する株式市場の研究の適用性を制限している。 さらに、この分野でこれまで行われた作業は、自然界の統計学か、あるいはランダムフォレストツリーのような古典的機械学習モデルに関するものだった。 本稿では,この問題領域における2つの既存のニューラルネットワークアーキテクチャの新たな適用法を提案する。

Despite the fact that cryptocurrencies themselves have experienced an astonishing rate of adoption over the last decade, cryptocurrency fraud detection is a heavily under-researched problem area. Of all fraudulent activity regarding cryptocurrencies, pump and dump schemes are some of the most common. Though some studies have been done on these kinds of scams in the stock market, the lack of labelled stock data and the volatility unique to the cryptocurrency space constrains the applicability of studies on the stock market toward this problem domain. Furthermore, the only work done in this space thus far has been either statistical in nature, or has been concerned with classical machine learning models such as random forest trees. We propose the novel application of two existing neural network architectures to this problem domain and show that deep learning solutions can significantly outperform all other existing pump and dump detection methods for cryptocurrencies.
公開日: Tue, 10 May 2022 03:24:32 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
Crypto Pump and Dump Detection via Deep Learning Techniques 深層学習技術による暗号ポンプとダンプ検出 0.80
Viswanath Chadalapaka Viswanath Kōr 0.27
Kyle Chang Gireesh Mahajan カイル・チャン Gireesh Mahajan 0.42
Anuj Vasil vchad@usc.edu Anuj vchad@usc.edu 0.29
krchang@usc.edu krchang@usc.edu 0.39
gmahajan@usc.edu gmahajan@usc.edu 0.39
avasil@usc.edu avasil@usc.edu 0.39
2 2 0 2 y a M 0 1 2 2 0 2 y a m 0 1 である。 0.53
] G L . s c [ ] G L。 sc [ 0.47
1 v 6 4 6 4 0 1 v 6 4 6 4 0 0.43
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract Despite the fact that cryptocurrencies themselves have experienced an astonishing rate of adoption over the last decade, cryptocurrency fraud detection is a heavily underresearched problem area. 概要 暗号通貨自体が過去10年間に驚くほどの頻度で採用されているにもかかわらず、暗号通貨の不正検出は、あまり調査されていない問題だ。 0.49
Of all fraudulent activity regarding cryptocurrencies, pump and dump schemes are some of the most common. 暗号通貨に関する不正行為の中で、ポンプとダンプのスキームが最も一般的である。 0.60
Though some studies have been done on these kinds of scams in the stock market, the lack of labelled stock data and the volatility unique to the cryptocurrency space constrains the applicability of studies on the stock market toward this problem domain. 株式市場におけるこうした詐欺に関する研究はいくつか行われているが、ラベル付き株式データや暗号通貨分野特有のボラティリティの欠如は、この問題領域に対する株式市場の研究の適用性を制限している。 0.73
Furthermore, the only work done in this space thus far has been either statistical in nature, or has been concerned with classical machine learning models such as random forest trees. さらに、この分野でこれまで行われた作業は、自然界の統計学か、あるいはランダムフォレストツリーのような古典的機械学習モデルに関するものだった。 0.77
We propose the novel application of two existing neural network architectures to this problem domain and show that deep learning solutions can significantly outperform all other existing pump and dump detection methods for cryptocurrencies. 本稿では,この問題領域における2つの既存のニューラルネットワークアーキテクチャの新たな適用法を提案する。
訳抜け防止モード: この問題領域における2つの既存のニューラルネットワークアーキテクチャの新しい応用法を提案する。 そして、ディープラーニングのソリューションが、暗号通貨の既存のポンプやダンプの検出方法を大幅に上回っていることを示す。
0.61
Introduction 1 In 2021 alone, cryptocurrencies (or “crypto”) experienced over $14 trillion worth of trading volume, representing nearly a 700% increase over the previous year. はじめに 2021年だけで、暗号通貨(または”crypto”)の取引量は14兆ドルを超え、前年同期比で700%近く増加した。 0.57
In that same year, the Binance cryptocurrency exchange (or just “exchange”) was responsible for over two-thirds of that volume (Khatri, 2021). 同じ年に、binanceの暗号通貨取引所(あるいは単に”exchange”)がその額の3分の2以上を担っていた(khatri, 2021)。 0.69
As crypto and the use of these exchanges enters the mainstream, the conversation surrounding their regulatory hurdles has intensified (Cumming et al , 2019). 暗号通貨とこれらの取引所の利用が主流になるにつれ、規制上のハードルを取り巻く議論が激化している(Cumming et al , 2019)。 0.60
Of those hurdles, the detection of fraudulent activities at scale is one of the most pressing, given the rapid growth of the space. これらのハードルの中で、空間の急速な成長を考えると、大規模な不正行為の検出は最も急務である。 0.57
Despite these concerns, the amount of regulation in crypto pales in comparison to more mainstream flows of money, such as stocks. こうした懸念にもかかわらず、暗号通貨の規制の量は、株式などより主流の資金の流れと比較すると小さくなっている。 0.59
This allows fraud to plague the crypto space at a level unheard of in the stock market. これにより、詐欺師は株式市場の無音レベルにおいて暗号通貨の空間を悩ませることができる。 0.59
Among all types of fraud in the crypto space, pump and dump (P&D) schemes are some of the most popular, and some of the easiest, to execute on (Twomey and Mann, 2020) – generally resulting from the concerted effort of just a single online P&D planning group (Hamrick et al , 2021). 暗号化空間におけるあらゆる種類の詐欺のうち、ポンプ・アンド・ダンプ(p&d)スキームは最も人気があり、最も簡単なもの(twomey and mann, 2020)の1つであり、一般的には1つのオンラインp&dプランニンググループ(hamrick et al, 2021)の協力によるものである。 0.72
Despite that, no studies have been done to-date on the application of deep learning to P&D detection in crypto. それにもかかわらず、暗号における深層学習のP&D検出への応用についてはこれまで研究されていない。 0.68
Though some studies involving the application of deep learning have been done in the context of traditional securities such as stocks (Leangarun et al , 2018), these studies not only lacked the amount of data now freely available for crypto (via the blockchain), but also have no guarantee of applicability to the much more volatile world of crypto. ディープラーニングの適用に関するいくつかの研究は、株式などの従来の証券(Leangarun et al , 2018)の文脈で行われているが、これらの研究は、現在(ブロックチェーンを介して)暗号化で自由に利用できるデータ量だけでなく、より不安定な暗号の世界への適用性の保証もない。 0.74
This paper presents two novel applications of existing deep learning methods to detect P&D schemes in crypto – specifically, for small, volatile cryptocurrencies also known as altcoins. 本稿では,既存の深層学習法を用いて,暗号中のp&dスキーム,特にaltcoinsとして知られる小さな揮発性暗号通貨を検出する2つの新しい応用について述べる。 0.68
Our work focuses on taking advantage of the bulk of freely available data by using deep learning to drive performance gains, since previous works in this space have thus far only applied either classical machine learning techniques such as random forest trees (La Morgia et al , 2020), or more basic techniques such as statistic analyses (Kamps and Kleinberg, 2018) to the problem. この分野でのこれまでの研究は、ランダムな森林木(La Morgia et al , 2020)のような古典的な機械学習技術や、統計解析(Kamps, Kleinberg, 2018)のようなより基本的な技術にしか適用されていない。
訳抜け防止モード: 私たちの研究は、ディープラーニングを使ってパフォーマンス向上を促進することで、無償で利用可能な大量のデータを活用することに重点を置いています。 この分野でのこれまでの研究は、ランダムフォレストツリー(la morgia et al, 2020)のような古典的な機械学習技術のみを適用してきた。 あるいは、問題に対する統計分析(kamps and kleinberg, 2018)のようなより基本的なテクニック。
0.61
All of our work is reproducible, and a link to our code can be found in the footnote below. 私たちの作業はすべて再現可能で、コードへのリンクは下記の脚注に記載されています。 0.74
1 2 Related Work 2.1 Application of Classical Machine Learning and Statistical Models to Crypto P&D Detection 1 2 関連作業 2.1 古典的機械学習と統計モデルの暗号p&d検出への応用 0.65
To-date, only classical machine learning models such as random forest trees have been applied in the これまで、ランダム林木などの古典的機械学習モデルのみが適用されてきた。 0.79
1https://github.com/ Derposoft/crypto_ 1https://github.com/ Derposoft/crypto_ 0.17
pump_and_dump_with_d eep_learning pump_and_dump_with_d eep_learning 0.10
英語(論文から抽出)日本語訳スコア
Figure 1: An example of an organized P&D scheme on the REAP token. 図1:REAPトークン上の組織化されたP&Dスキームの例。 0.76
Red stars indicate visual signs of the accumulation phase in the form of subtle buying pressure, while the blue star indicates the pump and dump phases of the scheme. 赤色の星は微妙な購入圧力の形で蓄積段階の視覚的な兆候を示し、青色の星はポンプとダンプ段階を示す。 0.73
This data was manually obtained directly from the KuCoin exchange (https://www.kucoin. com/trade/REAP-USDT) , although the same information can be found on other exchanges as well. このデータはkucoin exchange(https://www .kucoin.com/trade/re ap-usdt)から直接手作業で取得された。 0.76
Publicly-available videos on YouTube can confirm that this fluctuation in the REAP token’s price was a result of a planned P&D operation (Coffeezilla, 2021). YouTube上の一般公開ビデオは、REAPトークンの価格のこの変動が、P&D事業の計画の結果であることを確認した(Coffeezilla, 2021)。 0.75
crypto space to detect P&D schemes (La Morgia et al , 2020). P&Dスキームを検出する暗号空間(La Morgia et al , 2020)。 0.74
Statistical models have also been applied in this domain (Kamps and Kleinberg, 2018). この領域では統計モデルも適用されている(Kamps and Kleinberg, 2018)。 0.81
These models often aggregate trade data at a high level and use these coalesced features to predict when a P&D scheme will occur. これらのモデルは、しばしば高いレベルで取引データを集約し、これらの結合された特徴を使用して、いつP&Dスキームが発生するかを予測する。
訳抜け防止モード: これらのモデルは、しばしば高いレベルで取引データを集約し、これらの統合特徴を使用する p&dがいつ行われるかを予測する。
0.67
As these are the only works that have been done in this niche, we hope that our own work in this paper will help build a better foundation in this domain going forward. これらは、このニッチでなされた唯一の作品なので、この論文における私たちの仕事がこの領域でより良い基盤を構築するのに役立つことを期待しています。
訳抜け防止モード: このニッチで行われているのはこれらの作品だけです この論文における私たちの取り組みが、この領域におけるより良い基盤の構築に役立てることを願っています。
0.70
2.2 Application of Deep Learning to General 2.2 ディープラーニングの一般への応用 0.70
Anomaly Detection Anomaly detection in a general setting unrelated to crypto is a well-researched field. 異常検出 暗号とは無関係な一般設定における異常検出は、よく研究された分野である。 0.56
More specifically, studies involving the application of deep learning to time-series anomaly detection problems have been done involving multiple network architectures: LSTMs (Malhotra et al , 2016), convolutional networks (Kwon et al , 2018), and various combinations of the two (Kim and Cho, 2018); and more recently, multiple variations of attentionbased methods such as RNN attention (Brown et al , 2018) or the anomaly transformer (Xu et al , 2021) have also been explored. より具体的には、深層学習の時系列異常検出問題への適用を含む研究は、複数のネットワークアーキテクチャを含む。LSTMs (Malhotra et al , 2016), convolutional network (Kwon et al , 2018), and various combinations of the two (Kim and Cho, 2018), さらに最近では、RNN attention (Brown et al , 2018), or the anomaly transformer (Xu et al , 2021)といった注目ベースの手法の多種多様なバリエーションも検討されている。 0.86
As of writing this paper, deep learning architectures are at the forefront of この論文の執筆時点では、ディープラーニングアーキテクチャは最先端にある。 0.62
time-series anomaly detection due to their strength in making predictions using spatiotemporal relationships, which are key to strong anomaly detection models (Kim and Cho, 2018). 時空間的関係を用いた予測の強みによる時系列異常検出は,強い異常検出モデル(kim and cho, 2018)の鍵となる。 0.81
In this work, we implement, modify, and tune some of these latest architectures in an attempt to adapt them to the crypto domain. この作業では、暗号化ドメインにそれらを適用するために、これらの最新のアーキテクチャのいくつかを実装し、修正し、チューニングします。 0.56
3 Background While P&D is heavily fined by the SEC in traditional financial markets (e g stocks), crypto remains to be regulated at a federal level. 背景 P&Dは従来の金融市場のSEC(証券取引委員会)から大きな罰金を受けているが、暗号通貨は連邦レベルで規制されている。 0.45
This opens the opportunity for various P&D groups to openly plan P&D events over online messaging platforms such as Telegram or Discord (La Morgia et al , 2020). これにより、さまざまなp&dグループがtelegramやdiscord(la morgia et al , 2020)といったオンラインメッセージングプラットフォーム上でp&dイベントをオープンに計画する機会が開かれる。 0.77
Typically, a P&D scheme consists of three phases: the accumulation phase, the promotion (or “pump”) phase, and the distribution (or “dump”) phase. 通常、P&Dスキームは、蓄積相、促進相(pump)相、分布相(dump)相の3つのフェーズから構成される。 0.57
During the accumulation phase, the group organizing the scheme slowly accumulates a significant position in the asset of interest. 蓄積フェーズの間、スキームを組織するグループは徐々に関心の資産において重要な位置を蓄積する。 0.74
Once ready, the promotion phase begins: excitement is drummed up via social media promotion for the asset, and bullish sentiment is falsified through fraudulent re- ひとたび準備が整うと、プロモーションフェーズが始まる: 興奮は、資産のためのソーシャルメディアのプロモーションを通じて引き起こされる。 0.55
英語(論文から抽出)日本語訳スコア
ports. This causes retail investors to rally behind and invest in the asset, thereby driving the price up. 港だ これにより、小売投資家は上昇して資産に投資し、それによって価格が上昇する。 0.58
Finally, during the distribution phase, the perpetrator of the scheme liquidates their position in the asset over a very short period of time. 最後に、分配フェーズにおいて、スキームの加害者は、非常に短期間に資産におけるその位置を清算する。 0.60
Since the position being liquidated generally represents a significant portion of the asset itself, this inevitably causes a crash in the price of the original asset – leaving most of the retail investors who bought during the promotion phase at a significant loss on their positions over an extremely short time. 清算されるポジションは一般的に資産のかなりの部分を占めるため、必然的に元の資産の価格が暴落し、プロモーション期間中に購入したリテール投資家のほとんどが極めて短期間で大きな損失を被った。 0.64
The graph in Fig 1 is an example of a real P&D scheme on the REAP token which occurred near the start of April 2021. 図1のグラフは、2021年4月の初めに起こったREAPトークン上の実際のP&Dスキームの例である。 0.73
In this case, the entirety of the pump and dump phases lasted only a few minutes, and the accumulating party dumped all of their coins as soon as the value of the token shot up. この場合、ポンプとダンプフェーズの全体は数分しか続かず、蓄積されたパーティーはコインの価値が上がるとすぐにすべてのコインを投棄した。 0.61
Investors who bought during the peak of the pump would have been down nearly 90% in the span of just a few minutes. ポンプのピーク時に購入した投資家は、わずか数分で90%近く減少しただろう。 0.65
Successful P&D detection algorithms have the potential to alert investors of P&D schemes before they occur, and could even enable regulatory bodies to police this fraudulent activity in more cost and time-effective manners. 成功したp&d検出アルゴリズムは、p&dが発生する前に投資家にp&d計画を知らせる可能性があり、また規制当局がこの不正行為をよりコストと時間効率の良い方法で監視できる可能性さえある。
訳抜け防止モード: 良好なP&D検出アルゴリズムの可能性 投資家にP&D計画を事前に警告する。 そして この不正行為をよりコストと時間 - 効果的な方法で監視するための規制機関。
0.76
Ultimately, this could help to establish crypto as a much more legitimate trading option, as well as save investors and exchanges millions from potential scams and fraudulent activity. 最終的には、暗号通貨をより正当な取引オプションとして確立し、投資家や取引所を詐欺や詐欺行為から救うのに役立つだろう。 0.65
4 Method We propose the novel application of two architectures that have scored well on standard anomaly detection datasets to the now-burgeoning financial data also available in the cryptocurrency space: the C-LSTM model (Kim and Cho, 2018), and the Anomaly Transformer model (Xu et al , 2021). 4つの方法 我々は、暗号通貨の分野で現在急速に発展している金融データであるc-lstmモデル (kim and cho, 2018) とアノマリートランスフォーマーモデル (xu et al, 2021) に対して、標準異常検出データセットでよく評価された2つのアーキテクチャの新規な適用を提案する。 0.66
Since P&D schemes often have multiple phases that generally occur over vastly different lengths of time (e g the accumulation phase may last for up to a month, whereas the pump or dump phases can last for as little as a minute), both of the models that we have chosen have the ability to capture both longer-term anomalies – otherwise known as “trend” anomalies – and much shorter-term anomalies – otherwise known as “point” anomalies. p&dスキームは、通常、非常に異なる期間にわたって発生する複数のフェーズ(例えば、蓄積フェーズは最大1ヶ月持続するが、ポンプやダンプフェーズは1分程度持続する)を持つことが多いので、我々が選択したどちらのモデルも、長期の異常(いわゆる「trend」異常)と、はるかに短期間の異常(いわゆる「point」異常)の両方を捉えることができる。 0.74
This capability is important for the detection of P&D schemes, since models that are only capable of one or the other could potentially be fooled by the volatility inherent in crypto markets. この機能はp&dスキームの検出に重要である。なぜなら一方または他方の能力しか持たないモデルは、暗号市場固有のボラティリティによって騙される可能性があるからだ。 0.55
4.1 Models 4.1.1 C-LSTM Our first model is the C-LSTM model, originally introduced by (Kim and Cho, 2018) for learning anomaly detection by treating data as spatiotemporal in nature. 4.1 Models 4.1.1 C-LSTM 我々の最初のモデルはC-LSTMモデルです。
訳抜け防止モード: 4.1モデル 4.1.1 C - LSTM 最初のモデルはC - LSTMモデルです。 もともとは(Kim and Cho, 2018 )、自然の時空間としてデータを扱うことによって異常検出を学習するために導入された。
0.59
The model consists of a series of convolutional/ReLU/p ooling layers to encode the input sequence, followed by a set of LSTM layers, with decoding done via a set of feedforward layers. このモデルは、一連の畳み込み/ReLU/プール層からなり、入力シーケンスをエンコードし、次にLSTM層のセットが続き、フィードフォワード層のセットを介してデコードされる。 0.74
In this model, convolutional layers help to capture spatial information within the dataset, thereby helping to identify point anomalies; on the other hand, the LSTM layers help to capture temporal information, and help to identify trend anomalies. このモデルでは、畳み込み層はデータセット内の空間情報をキャプチャし、点異常を特定するのに役立ち、一方LSTM層は時間的情報を取得するのに役立ち、トレンド異常を特定するのに役立ちます。 0.78
This simple model has shown success in the detection of varying types of web traffic anomalies (Kim and Cho, 2018), as well as anomalies across a number of stocks in the Chinese stock market (Yang et al , 2020). この単純なモデルは、さまざまな種類のウェブトラフィック異常の検出(kim and cho、2018年)や、中国株式市場における多数の株式異常(yang et al、2020年)に成功している。 0.68
The following image is a visual representation of the C-LSTM model. 以下の画像はC-LSTMモデルの視覚表現である。 0.86
Our Implementation Our own model uses the following architecture: 1 set of convolutional/ReLU/p ooling layers with a convolution kernel size of 3 with a stride of 1, and a pooling kernel size of 2 with a stride of 1; 1 LSTM layer with an embedding dimension of 350; 1 feedforward layer which directly projects the last hidden state of the LSTM to a dimension of 1; and a sigmoid layer which constrains the output of our classifier between 0 and 1. 私たちの実装では,1つの畳み込みカーネルサイズ3の畳み込みカーネルサイズと1のストライドを持つ2のプーリングカーネルサイズ,350の埋め込み次元を持つ1のLSTM層,1の次元にLSTMの最後の隠れ状態を直接投影する1のフィードフォワード層,0と1の分類器の出力を制約するシグミド層というアーキテクチャを採用しています。 0.70
This setup resulted in a C-LSTM model with 997,851 learnable parameters which was trained for 200 epochs. このセットアップにより、C-LSTMモデルと997,851の学習可能なパラメータが200エポックで訓練された。 0.63
4.1.2 Anomaly Transformer The second model we explored was the Anomaly Transformer introduced by (Xu et al , 2021). 4.1.2 anomaly transformer 2番目のモデルは(xu et al, 2021)で導入されたanomaly transformerである。 0.70
Unlike a standard transformer, the Anomaly Transformer uses a custom anomaly attention module to improve its performance in anomaly detection scenarios. 標準のトランスとは異なり、Anomaly Transformerは、異常検出シナリオのパフォーマンスを改善するために、カスタムの異常アテンションモジュールを使用する。
訳抜け防止モード: 標準的なトランスフォーマーとは異なり、アノマリートランスフォーマーはカスタムアノマリーアテンションモジュールを使用する 異常検出シナリオにおける性能を向上させる。
0.73
To that end, the model introduces two novelties: an anomaly attention module, and a minimax optimization strategy. このモデルには、異常注意モジュールとミニマックス最適化戦略という2つの新しい特徴が導入されている。 0.73
Additionally, on top of this model, we introduced our own, original novelty さらに、このモデルの上に、私たちは独自のオリジナルノベルティを導入しました。 0.64
英語(論文から抽出)日本語訳スコア
phase, the series association is moved towards the original input sequence by taking the absolute difference of the two. 位相、系列は2つの絶対差を取ることにより、元の入力シーケンスに向かって移動される。 0.72
The series association is also enlarged using the prior association (once again through the symmetric KL divergence formula). 級数アソシエーションは、事前のアソシエーション(再び対称KL発散式を通して)を用いて拡大される。 0.60
Therefore, during the minimize phase, the prior association approximates the series association. したがって、最小位相の間、先行関係は級数関係に近似する。 0.57
Then, during the maximize phase, the series association pays more attention to non adjacent points since it is enlarged by the prior association. そして、最大位相において、系列連合は、先行結合によって拡大されるため、非隣接点により注意を払う。 0.70
As a result, a sequence generated by prior and series associations will lower the attention value at any anomaly. その結果、前および後続の関連によって生成されるシーケンスは、任意の異常時に注意値を下げる。 0.71
The total amount of difference between the two associations captured during this process is encapsulated by the Association Discrepancy function, denoted as AD. この過程で捕獲された2つの協会の総差は、ADと表記されるアソシエーション不一致関数によってカプセル化される。 0.65
The data is then reconstructed after the minimax optimization via multiplying the series association Sl with the value matrix standard to an attention module, V . 次に、シリーズアソシエーションslと値行列標準とを乗じて注意モジュールvに乗じてミニマックス最適化後にデータを再構成する。 0.67
The minimax strategy is visualized below. minimax戦略を以下に示す。 0.73
– an altered optimization strategy and loss function – in order to adapt the model to a supervised setting, since this model was first developed and intended for unsupervised settings. このモデルが最初に開発され、教師なしの設定のために意図されていたため、最適化戦略と損失関数が変更された。
訳抜け防止モード: 調整された最適化戦略と損失関数 ― 順番に モデルを教師付き環境に適応させ このモデルは最初に開発され 教師なしの設定を意図したものです
0.73
The Anomaly Transformer model was chosen because it is the current state-of-the-art anomaly detection model for general time-series anomaly detection (Xu et al , 2021), consistently achieving strong results across a variety of standard datasets, including server sensor data (Su et al , 2019), rover data from NASA (Keogh et al , 2021), and the NeurIPS 2021 timeseries benchmark (Lai et al , 2022). anomaly transformerモデルは、一般的な時系列異常検出のための現在の最先端の異常検出モデル(xu et al , 2021)であり、サーバセンサデータ(su et al , 2019)、nasaのローバーデータ(keogh et al , 2021)、neurips 2021 時系列ベンチマーク(lai et al , 2022)など、さまざまな標準データセットで一貫して強力な結果を達成している。 0.81
The first of the two novelties introduced by the Anomaly Transformer which makes it particularly good at detecting anomalies is the replacement of the standard self-attention computation with two, internally-computed association values that influence the attention block: series association and prior association. Anomaly Transformerによって導入された2つの新しい特徴のうち、特に異常を検出するのに優れているのは、標準的な自己注意計算を、注意ブロックに影響を与える2つの内部計算された関連値であるシリーズアソシエーションと先行アソシエーションに置き換えることである。 0.64
These two associations make up the “anomaly attention module” and are as described below: これら2つの協会は、「異常注意モジュール」を構成し、以下のとおりである。 0.66
1. Series association at each layer l, denoted Sl, is a simple self-attention computation on the data before multiplying by the value matrix V which is standard to a normal attention mechanism. 1. 各層lにおける系列関係(sl)は、通常の注意機構に標準となる値行列vに乗じる前のデータに対する単純な自己注意計算である。 0.78
Series association focuses on longerterm trends, and helps in the detection of trend anomalies. シリーズアソシエーションは長期的なトレンドに焦点を当て、トレンド異常の検出を支援する。 0.71
Sl = Sof tmax( Sl = Sof tmax( 0.42
QKT√ dmodel QKT' dmodel 0.39
) 2. Prior association at each layer l, denoted P l, computes a Gaussian kernel for each point with respect to the input sequence. ) 2) 各層 l における先行関連は P l と表記され、入力シーケンスに関して各点についてガウス核を計算する。 0.59
A rescale operation is done to convert the result to discrete distributions for each layer l. 再スケール操作を行い、その結果を各層lの離散分布に変換する。 0.74
Prior association focuses more on local points, and helps the model in the detection of point anomalies. 以前のアソシエーションはより局所点に焦点を当てており、点異常の検出においてモデルに役立つ。 0.59
(cid:16) (cid:17) (出典:16) (cid:17) 0.53
P l = Rescale P l = 再スケール 0.81
[N (j|µ = i, σ)]i,j∈1,...,N [N(j|μ = i, σ)]i,j・1,...,N 0.46
The second of the two novelties introduced by this model is the minimax optimization process which takes place after computing the values Sl and P l. このモデルによって導入された2つの新しいうちの2つは、Sl と Pl の値を計算した後に発生するミニマックス最適化プロセスである。 0.68
This process consists of two phases: minimize and maximize. この過程は、最小と最大の2つの相からなる。 0.63
During the minimize phase, the series association is moved towards the prior association using the symmetric KL divergence formula, denoted SKL. 最小位相の間は、SKLと表される対称KL発散公式を用いて、系列結合を先行結合に移動させる。 0.71
During the maximize Combining these novelties means that the reconstructed series, denoted ˆX, will greatly differ from the original series if an anomaly is present, making the discrepancy greater and giving the model an easier time to identify anomalies. 最大化の間 これらの新規性を組み合わせることは、再構成された級数は、もし異常が存在する場合、元の級数と大きく異なり、矛盾が大きくなり、モデルの異常を識別する時間がより容易になることを意味する。 0.71
After integrating in the reconstruction loss, the losses derived from each of these two phases are summarized through the following equations, where λ > 0 and Ltot represents the total loss: 復元損失を統合すると、これらの2つの相のそれぞれに由来する損失は、λ > 0 と Ltot の合計損失を表す次の方程式によって要約される。 0.80
M inP hase : Ltot( ˆX, P, Sdetach,−λ; X) M inP hase : Ltot( >X, P, Sdetach,−λ; X) 0.44
M axP hase : Ltot( ˆX, Pdetach, S, λ; X) M axP hase : Ltot( >X, Pdetach, S, λ; X) 0.44
英語(論文から抽出)日本語訳スコア
Ltot( ˆX, P, S, λ; X) = (cid:107)X − ˆX(cid:107)2 Ltot( >X, P, S, λ; X) = (cid:107)X − >X(cid:107)2 0.45
F − λ(cid:107)AD(P, S; X)(cid:107) SKL(A, B) = KL(A(cid:107)B) + KL(B(cid:107)A) F −λ(cid:107)AD(P, S; X)(cid:107)SKL(A, B) = KL(A(cid:107)B) + KL(cid:107)A) 0.45
AD(P, S; X) = AD(P, S; X) = 0.43
SKL(P l i,:, Sl SKL(Pl) i,:,Sl 0.34
i,:) i (複数形 is) 0.30
L(cid:88) 1 L l(cid:88) 1L 0.38
l=1 ˆX = SlV l=1 >X = SlV 0.35
Our Implementation Since our own problem was supervised, we modified the optimization strategy and loss function used, since the Anomaly Transformer was originally built for unsupervised data. anomaly transformerは元々,教師なしデータのために構築されていたため,本実装では,使用する最適化戦略と損失関数を変更した。 0.73
We propose and implement the following changes in order to adapt this model to a supervised anomaly detection setting: 我々は,このモデルを教師付き異常検出設定に適応させるために,以下の変更を提案し,実装する。 0.72
1. Keep the maximize phase the same, but replace the minimize phase: instead, we move the series association towards the ground truth. 1. 最大化フェーズは同じですが、最小化フェーズを置き換えます:代わりに、シリーズアソシエーションを基底真理に向かって移動します。 0.75
2. Replace the first term of the loss with the popular MSE loss between the outputted labels and the ground truth labels. 2. 損失の第一期を、出力されたラベルと基底真理ラベルの間で人気のMSE損失に置き換える。 0.86
Our loss function for our maximize phase therefore becomes the following: したがって、最大位相の損失関数は次のようになる。 0.66
Ltot( ˆY , P, S, λ; Y ) = M SE( ˆY , Y ) Ltot( ~Y , P, S, λ; Y ) = M SE(~Y , Y ) 0.45
− λ(cid:107)AD(Pdetach, S; ˆY )(cid:107) The optimal model we used had a sequence −λ(cid:107)AD(Pdetach, S; >Y )(cid:107) 最適なモデルにはシーケンスがあった。 0.81
length of 15, 4 layers, and a lambda of 0.0001. 長さは15,4層、ラムダは0.0001である。 0.75
This setup resulted in an Anomaly Transformer model with 155,665 learnable parameters which was trained for 50 epochs. このセットアップにより、155,665の学習可能なパラメータを持つAnomaly Transformerモデルが50エポックでトレーニングされた。 0.66
4.2 Metrics During our experiments, we collect the precision, recall, and F1 scores of our models on the validation set at the end of each epoch. 4.2 メトリクス 実験では、各エポックの最後に設定された検証セットに基づいて、モデルの精度、リコール、F1スコアを収集します。 0.64
Since cryptocurrency P&D detection is an anomaly detection problem, we have chosen not to collect the accuracy of our model, because accuracy measurements do not reflect the strength of a model in anomaly detection scenarios. 暗号通貨のP&D検出は異常検出問題であるため、精度測定は異常検出シナリオにおけるモデルの強度を反映しないため、モデルの精度を収集しないことを選択した。 0.82
Specifically, since anomaly detection scenarios have a large class imbalance heavily favoring negative labels, the accuracy of any model is almost always over 99.9% even if it just outputs 0 (the negative class). 特に、異常検出シナリオは負のラベルに強く好まれる大きなクラス不均衡を持っているため、たとえ0(負のクラス)を出力するだけでも、どのモデルも99.9%以上の精度を持つ。 0.78
Therefore, we optimize our models for the best possible F1 score for the reason that F1 scores generally reflect the したがって、F1スコアが一般に反映されるため、可能な限りF1スコアに最適化する。 0.76
strength of an anomaly detection model accurately. 異常検出モデルの強さを正確に 0.81
This is the standard used by most other anomaly detection models and helps us compare our results to previous work more effectively. これは、他のほとんどの異常検出モデルで使用される標準であり、これまでの結果とより効果的に比較するのに役立ちます。
訳抜け防止モード: これは他のほとんどの異常検出モデルで使われる標準です これまでの成果をもっと効果的に比較する上で役立ちます
0.80
The precision is defined as the percentage of predicted anomalies which were correctly classified, and the recall is defined as the percentage of actual anomalies that were correctly classified as anomalies. 精度は、正確に分類された予測異常の比率として定義され、リコールは、正しく分類された実際の異常の比率として定義される。 0.73
The F1 score is the harmonic mean of these two values. F1スコアは2つの値の調和平均である。 0.73
Given that both the precision and recall are important in the context of anomaly detection, it stands to reason that the F1 score, which is a mix of the two values, is a good metric with which to compare two different models at the end of the day. 精度とリコールの両方が異常検出の文脈で重要であることを考えると、2つの値の混合であるf1スコアが、一日の終わりに2つの異なるモデルを比較する良い指標であることは理にかなっている。 0.72
The following equations are used to calculate the precision, recall, and F1 scores respectively: 以下の式は、それぞれ精度、リコール、F1のスコアを計算するために用いられる。 0.69
P recision = p のレゾクション = 0.66
Recall = NT P リコール= nt p である。 0.45
NT P + NF P NT P + NF P 0.42
NT P NT P + NF N nt p である。 NT P + NF N 0.36
F 1 = 2 ∗ P recision ∗ Recall F 1 = 2 ∗ P recision ∗ Recall 0.42
P recision + Recall P recision + Recall 0.42
where the terms NT P , NF P , and NF N refer to the number of True Positives, False Positives, and False Negatives respectively. NT P 、NF P 、NF N はそれぞれ正の正の個数、偽の正の個数、偽の負の個数を指す。 0.62
After training each model, we choose the metrics corresponding to the epoch in which the highest validation F1 score was obtained instead of the metrics from the final epoch. 各モデルをトレーニングした後、最終エポックの指標の代わりに、最も高い検証値F1スコアが得られたエポックに対応する指標を選択する。 0.66
This ensures that our metrics reflect a model that hasn’t overfit the training data. これにより、トレーニングデータに過度に適合しないモデルを、私たちのメトリクスが反映されることが保証されます。 0.53
5 Experiments 5.1 Dataset The dataset used in this paper consists of manuallylabelled, raw transaction data from the Binance cryptocurrency exchange, first introduced by (La Morgia et al , 2020). 5 Experiments 5.1 Dataset この論文で使用されるデータセットは、最初に紹介された(La Morgia et al , 2020)Binance暗号取引所の生の取引データを手動で記述したものです。 0.68
The transactions of various cryptocurrencies that experienced known occurrences of P&D were collected. 既知のP&Dの発生を経験した様々な暗号通貨の取引を収集した。 0.68
To generate the dataset, the authors first joined several cryptocurrency P&D Telegram groups that were well-known for planning and executing on P&D schemes. データセットを生成するために、著者らは最初にいくつかの暗号通貨P&D Telegramグループに加わり、P&Dスキームの計画と実行でよく知られている。 0.63
Then, over a period of two years, the researchers collected the timestamps for official ”pump signals” which were announced in each of these groups by group administrators. そして2年かけて、各グループで発表されていた「パンプ信号」のタイムスタンプを収集しました。
訳抜け防止モード: そして2年かけて、研究者たちは公式のポンプ信号のためのタイムスタンプを収集しました。 それぞれのグループで グループ管理者によって発表されました
0.74
Using these timestamps and the Binance API, the authors were able to collect every transaction for これらのタイムスタンプとBinance APIを使用して、著者はすべてのトランザクションを収集することができた 0.63
英語(論文から抽出)日本語訳スコア
the pumped cryptocurrency for up to 1 week preceding and succeeding the pump, depending on what was available to access. この暗号通貨は、アクセス可能なものに応じて、最大1週間までポンプの前と後継に投下された。 0.67
In this fashion, 343 P&D occurrences’ worth of data was collected. この方法では、343件のP&D事象のデータを収集した。 0.74
After collecting this raw data from the Binance API, the authors further preprocessed the data by aggregating transactions into 5-second, 15-second, and 25-second “chunks”, thereby forming three different aggregated datasets. binance apiからこの生データを収集した後、著者らはトランザクションを5秒、15秒、25秒の“チャンク”に集約することで、さらにデータを前処理し、3つの異なる集約データセットを形成する。 0.61
Each of these aggregated datasets, in turn, contains the following 15 features: これらの集計データセットはそれぞれ、以下の15の機能を含んでいる。 0.75
1. Date, HourSin, HourCos, MinuteSin, MinuteCos: The date and hour- and minute-based positional encoding of a given chunk. 1.日付、時間、時間、分単位、分単位:所定のチャンクの時間と分単位の位置エンコーディング。 0.62
2. PumpIndex, Symbol: The 0-based index of the pump, numbering it out of the 343 available pumps, and the ticker symbol of the coin on which the pump took place. 2. PumpIndex, Symbol: ポンプの0ベースのインデックスで、343個のポンプのうちの番号と、ポンプが行われた硬貨のチッカー記号である。 0.71
3. StdRushOrder, AvgRushOrder: The moving standard deviation and average percent change of the number of rush orders. 3. StdRushOrder, AvgRushOrder: 移動中の標準偏差とラッシュオーダー数の平均パーセントの変化。 0.74
4. StdTrades: The moving standard deviation 4. StdTrades: 動く標準偏差 0.71
of the number of trades, both buy and sell. 取引数のうち 売買数です 0.35
5. StdVolume, AvgVolume: The moving standard deviation and average percent change in the order volume. 5. std volume, avg volume: 移動標準偏差と平均パーセントはオーダーボリュームで変化する。 0.80
6. StdPrice, AvgPrice, AvgPriceMax: The moving standard deviation, average percent change, and average maximum percent change in the price of the asset. StdPrice, AvgPrice, AvgPriceMax: 移動中の標準偏差、平均的な変化、資産価格の平均的な最大パーセントの変化。
訳抜け防止モード: 6. stdprice, avgprice, avgpricemax : 移動標準偏差 平均的なパーセンテージは変化し、平均的な最大パーセンテージは資産の価格を変動させる。
0.76
Implementation Details 5.2 Given an input data sequence X = X1, ..., XN , our first step splits the data into a separate train and validation set using an 80:20 ratio without shuffling. 実施内容 5.2 入力データ列 X = X1, ..., XN が与えられると、最初のステップでは、シャッフルなしで80:20の比率で、データを別々の列車と検証セットに分割します。 0.54
Following this split, train data undergoes the following preprocessing steps: First, data is broken into M contiguous subsequences X = Y1, . この分割の後、トレインデータは以下の前処理ステップを実行する: まず、データはMの連続列 X = Y1, に分割される。 0.73
., YM , where Yi corresponds to the ith pump in the dataset as determined by the PumpIndex feature. Yiは、PumpIndex機能によって決定されたデータセットのithポンプに対応するYMである。 0.64
Separating the data out by pump at this stage ensures that during training time, models aren’t fed information from 2 different pumps at the same time, which may hinder their training process. この段階でデータをポンプで分離することで、トレーニング期間中、モデルは2つの異なるポンプから同時に情報を供給されないため、トレーニングプロセスが妨げられる可能性がある。 0.83
Of these pumps, all pump sequences Yi with fewer than 100 chunks are discarded, since pumps that only have a few chunks do not make for exemplary training これらのポンプのうち、100チャンク未満のポンプ列Yiは、数チャンクしか持たないポンプが模範訓練に適さないため、廃棄される。 0.70
samples. This leaves us with a training subset of m < M pump sequences. サンプル これにより、m < m ポンプシーケンスのトレーニングサブセットが得られる。 0.59
Then, we further prepare the data for each of these pumps by splitting them into segments of size s via taking a sliding window over the chunks of each pump Yi and adding reflection padding to the start of size s − 1 so that the resulting count of windows is equal to the original count of chunks. そして、各ポンプyiのチャンクにスライディングウインドウを付けて、各ポンプのデータをサイズsのセグメントに分割し、そのサイズs−1の開始に反射パディングを付加することにより、結果のウィンドウ数を元のチャンク数に等しいようにして、各ポンプのデータをさらに準備する。 0.78
Together, the chunks in each window are considered to be one “segment.” 同時に、各ウィンドウのチャンクは1つの「セグメント」と見なされる。 0.74
In this scheme, segments are inputs to our models. このスキームではセグメントは我々のモデルに入力される。 0.72
The models then predict the probability of a pump occurring during the last chunk of the segment. モデルでは、セグメントの最後のチャンクでポンプが発生する確率を予測する。 0.75
At this point, the segments from all pumps can once again be safely shuffled and batched together without fear of information from one pump “leaking” into the training data for another pump. この時点では、すべてのポンプからのセグメントが再び安全にシャッフルされ、ひとつのポンプから別のポンプのトレーニングデータに“リーキング”される恐れがなくなる。 0.75
We choose to segment our data for several reasons. 私たちはいくつかの理由でデータをセグメント化することにしました。 0.47
First, segmenting and predicting in this way avoids the possibility for models to make predictions based on future values – in other words, in our setup, models can only predict whether or not a pump will occur based on currently-known information. 第一に、この方法でのセグメンテーションと予測は、モデルが将来の値に基づいて予測を行う可能性を避ける ― 言い換えれば、我々の設定では、モデルは現在知られている情報に基づいてポンプが発生するかどうかを予測できるだけである。 0.71
This ensures that models trained under this scheme have the capability to be deployed in a real-world, realtime anomaly detection scenarios on real exchanges. これにより、このスキームでトレーニングされたモデルが、実取引のリアルタイムな異常検出シナリオにデプロイ可能であることが保証される。 0.63
Additionally, the C-LSTM model incorporates an LSTM layer which faces performance limitations for longer sequence lengths (Vaswani et al , 2017). さらに、C-LSTMモデルでは、長いシーケンス長のパフォーマンス制限に直面したLSTM層が組み込まれている(Vaswani et al , 2017)。 0.73
The data for each pump can also span several days, making it difficult to train models directly on a whole pump sequence due to memory constraints. 各ポンプのデータも数日間にまたがるため、メモリ上の制約のため、ポンプシーケンス全体のモデルを直接トレーニングすることは困難である。 0.80
Having a fixed segment length as opposed to the variable lengths of pump data also simplifies data loading. ポンプデータの可変長に対して固定セグメント長を持つことも、データのロードを単純化する。 0.82
Finally, segmenting our data into chunks makes it straightforward to perform undersampling on our data, which has been shown to boost model performance in anomaly detection scenarios by addressing the class imbalance – even in cases where the reduction does not bring the class ratio all the way down to 50:50 (Hasanin and Khoshgoftaar, 2018). 最後に、データをチャンクに分割することで、データのアンダーサンプリングが簡単になります。クラス不均衡に対処することで、異常検出シナリオにおけるモデルパフォーマンスを向上することが示されている — クラス比率が50:50まで低下しない場合でも(Hasanin氏とKhoshgoftaar氏、2018年)。 0.75
Undersampling also naturally speeds up training, since it reduces the number of training samples. トレーニングサンプルの数を減らすため、アンダーサンプリングは自然にトレーニングを高速化する。 0.76
We therefore apply undersampling to our train data by choosing to keep only a random subset of proportion u of all segments that do not contain any anomaly labels. したがって、列車データに対して、異常ラベルを含まない全セグメントの比例uのランダムなサブセットのみを保持することによるアンダーサンプリングを適用する。 0.79
At the same time, we unconditionally include all segments that have an anomaly label anywhere. 同時に、異常ラベルがどこにでもあるすべてのセグメントを無条件に含む。 0.75
Validation data undergoes a similar segment- 検証データも同様なセグメントを経る 0.80
英語(論文から抽出)日本語訳スコア
ing process, with the following exceptions: small pumps are not thrown out, and no undersampling is performed. ingプロセスでは、以下の例外を除いて、小さなポンプは捨てられず、アンダーサンプリングは行われない。 0.72
This avoids unfairly skewing metrics in favor of our models. これにより、私たちのモデルに有利な指標を不当に求めることは避けられます。 0.44
Via hyperparameter tuning, we found that a segment length value of s = 15 resulted in the best validation performance as measured by F1 score. 過パラメータチューニングにより, s = 15 のセグメント長値がF1 スコアで測定された結果, 最高の検証性能が得られた。 0.81
An undersampling proportion of u = 0.05 was used for all experiments except for the C-LSTM on the 15-second chunked dataset, in which u = 0.1 was used. u = 0.05 のアンダーサンプリング比は、15秒のチャンクデータセット上の C-LSTM を除いて全ての実験で使われ、u = 0.1 であった。 0.73
For the C-LSTM model, batch sizes of 1200, 600, and 600 were used on the 5-second, 15-second, and 25-second chunked datasets respectively. C-LSTMモデルでは,5秒,15秒,25秒のチャンクデータセットでそれぞれ1200,600,600のバッチサイズを使用した。 0.74
For the Anomaly Transformer model, a batch size of 32 was used on all datasets. anomaly transformerモデルでは、すべてのデータセットで32のバッチサイズが使用された。 0.75
Likewise, the C-LSTM model uses precision-recall thresholds of 0.5, 0.4, and 0.65 on each the three datasets respectively, while the Anomaly Transformer model uses a threshold of 0.48 on all datasets. 同様に、C-LSTMモデルは3つのデータセットでそれぞれ0.5、0.4、0.65の精度参照しきい値を使用し、Anomaly Transformerモデルはすべてのデータセットで0.48のしきい値を使用する。 0.69
In order to keep results consistent across all models, baseline results were also recomputed following the same train-validation split as our own models. すべてのモデル間で結果の整合性を維持するため、ベースラインの結果も、我々のモデルと同じ列車価分割後に再計算された。 0.62
5.3 Baselines The baseline results that we use to compare our models against are those of the random forest model employed by (La Morgia et al , 2020). 5.3 ベースライン モデルを比較するために使用するベースライン結果は、(la morgia et al , 2020)採用のランダムフォレストモデルです。 0.66
For more context, the results of the statistical model introduced by (Kamps and Kleinberg, 2018) are also included in our results table, since they were used as a baseline for the random forest model originally. より詳しくは、(kamps and kleinberg, 2018)によって導入された統計モデルの結果も、もともとランダムフォレストモデルのベースラインとして使われていたため、結果表に含まれています。 0.69
The metric that we will use to compare our models to the baseline results will be the aforementioned F1 score of each experiment. 私たちのモデルとベースライン結果を比較するために使用するメトリクスは、上記の各実験のF1スコアになります。 0.76
5.4 Results Both deep learning models were able to beat all previous classical and statistical approaches by a statistically significant margin (p < 0.025) except for the C-LSTM model on the 15-second chunked dataset, which matched previous results. 5.4結果 どちらのディープラーニングモデルも、15秒のチャンクデータセット上のC-LSTMモデルを除いて、統計的に有意なマージン(p < 0.025)で従来の古典的および統計的アプローチをすべて破ることができた。 0.65
This demonstrates the effectiveness of deep learning in this previously unexplored area. これは、この未調査領域におけるディープラーニングの有効性を示す。 0.48
State-of-the-art results across all models are bolded in our table. すべてのモデルの最先端の結果は、私たちの表に大胆に書かれています。 0.45
On average, we found that predictions using the 5-second chunked dataset are much less accurate than those on the 15-second and 25-second chunked dataset, which suggests that predicting anomalies using smaller chunk sizes corresponds to a harder problem in general. 平均すると、5秒のチャンクデータセットを用いた予測は、15秒のチャンクデータセットや25秒のチャンクデータセットの予測よりもはるかに正確ではないことが分かり、より小さなチャンクサイズによる異常の予測は一般に難しい問題に対応していることが示唆された。 0.54
This corroborates findings from previous works (La Morgia et al , 2020). これは、以前の作品(La Morgia et al , 2020)の発見を裏付けるものである。 0.65
Table 1: Experimental Results Chunk Size Precision Recall F1 Model 1 Hour Kamps (Init.) Kamps (Bal.) 1 Hour Kamps (Strict) 1 Hour RF 5 Secs 15 Secs RF 25 Secs RF 5 Secs C-LSTM 15 Secs C-LSTM C-LSTM 25 Secs Anom. 表1:実験結果 チャンクサイズ精度リコール f1 model 1 hour kamps (init.) kamps (bal.) 1 hour kamps (strict) 1 hour rf 5 secs 15 secs rf 25 secs rf 5 secs c-lstm 15 secs c-lstm c-lstm 25 secs anom 0.70
Trans. 5 Secs Anom. トランス。 5 Secs Anom。 0.73
Trans. 15 Secs Anom. トランス。 15秒だ 0.48
Trans. 25 Secs 96.7% 26.8% 93.5% 54.4% 75.0% 60.5% 71.6% 82.6 ±0.0% 81.9% 89.2 ±0.0% 83.8% 88.8 ±0.0% 77.5% 83.7 ±1.0% 84.9% 89.3 ±0.4% 85.0% 89.3 ±0.5% 87.7% 89.3 ±0.4% 94.2% 93.6 ±0.8% 90.0% 89.2 ±0.3% トランス。 25秒 96.7% 26.8% 93.5% 54.4% 75.0% 60.5% 71.6% 82.6 ±0.0% 81.9% 89.2 ±0.0% 83.8% 88.8 ±0.0% 77.5% 83.7 ±1.0% 84.9% 89.3 ±0.4% 85.0% 89.3 ±0.5% 87.7% 89.3 ±0.4% 94.2% 93.6 ±0.8% 90.0% 89.2 ±0.3% 0.46
15.6% 38.4% 50.1% 97.7% 98.0% 94.5% 91.2% 94.2% 94.2% 91.0% 93.0% 88.4% 15.6% 38.4% 50.1% 97.7% 98.0% 94.5% 91.2% 94.2% 94.2% 91.0% 93.0% 88.4% 0.30
To show the variance of our models, the F1 metrics are followed by a 95% confidence interval computed over n = 10 runs. モデルのばらつきを示すために、F1メトリクスは、n = 10ランで計算された95%の信頼区間が続く。 0.78
Variance is measured after our efforts to maintain reproducability via setting seeds. 種子設定による再現性維持への取り組みの後に変動を測定する。 0.65
The random forest (RF) model’s lack of variance is due to our setting seeds in a similar manner to (La Morgia et al , 2020). ランダム・フォレスト(rf)モデルによる分散の欠如は、私たちの種子の設定が(la morgia et al , 2020)に類似しているためである。 0.78
Since the Kamps model is statistical in nature, it does not have variance across runs. カンプスモデルは本質的に統計的であるため、ラン間のばらつきは持たない。 0.67
A comparison of the two deep learning models that we have employed shows that the transformer was able to beat the LSTM in all but the 25-second chunk size. 私たちが導入した2つのディープラーニングモデルを比較すると、トランスフォーマーは25秒のチャンクサイズを除いてLSTMを全て破ることができた。 0.71
This is unsurprising for two reasons: firstly, transformers are state-of-the-art for timeseries anomaly detection problems to begin with, and secondly, a basic transformer design without the use of the Anomaly Transformer novelties already outperforms the random forest model results – albeit just barely. 第1に、トランスフォーマーは、最初は異常検出の問題に対処するための最先端技術であり、第2に、Anomaly Transformerのノベルティを使わずに基本的なトランスフォーマー設計は、ランダムな森林モデルの結果を上回っている。 0.68
We believe that the theoretical backing for the relative performance of the LSTM and Anomaly Transformer lies in the fact that for 5-second and 15-second chunk sizes, longer sequences are required to capture the same amount of information on average when compared to the larger 25-second chunks. LSTMとAnomaly Transformerの相対的な性能の理論的裏付けは、5秒と15秒のチャンクサイズでは、25秒のチャンクと比較して、同じ量の情報を平均で取得する必要があるという事実にあると考えている。 0.74
Consequently, this implies a drop in the amount of temporal information present in the input for smaller chunk sizes, given a fixed segment length s = 15 as was used in this paper. したがって,本論文で使用する固定セグメント長 s = 15 に対して,より小さなチャンクサイズの入力に対して,入力に存在する時間情報量が減少することを意味する。 0.85
We hypothesize that this difference is responsible for the LSTM’s faster drop in efficacy at smaller chunk sizes. この差がLSTMのより小さなチャンクサイズでの有効性の低下の原因であると仮定する。 0.67
However, more experiments must be done to reveal our models’ sensitivity to the aggregation chunk size of the dataset before confirming this. しかし、これを確認する前に、データセットの集約チャンクサイズに対するモデルの感度を明らかにするためには、さらなる実験が必要です。 0.69
6 Conclusion and Future Work 6 結論と今後の課題 0.78
This paper studies the application of deep learning models to the crypto fraud detection problem space. 本稿では,暗号不正検出問題に対するディープラーニングモデルの応用について検討する。 0.60
We propose two separate models that can each reach state-of-the-art performance on the data available: the C-LSTM, and the Anomaly Trans- 我々は,c-lstm と anomaly trans の2つの異なるモデルを提案する。 0.36
英語(論文から抽出)日本語訳スコア
former. Our results consequently show that both LSTMs and Transformers have the ability to outperform both classical ML models and statistical models on this dataset with relatively little effort. 前者だ その結果,LSTMとTransformerはどちらも,従来のMLモデルと統計モデルの両方を比較的少ない労力で比較できることがわかった。 0.65
Future work includes fine-tuning these models to better-account for the volatility generally found in crypto, and exploring the potential for these models to detect pumps ahead of time as opposed to when they begin. 今後の研究には、これらのモデルを微調整して、暗号で一般的に見られるボラティリティの精度を高めること、そしてこれらのモデルがいつ始まったかではなく、事前にポンプを検出する可能性を探求することが含まれる。
訳抜け防止モード: 今後の作業は順調です。 これらのモデルをより良いものに調整し -暗号で一般的に見られるボラティリティを説明し、その可能性を探る ポンプを事前に検出できるモデルです
0.58
Furthermore, the dataset provided to the community by (La Morgia et al , 2020), while incredibly useful, has been preprocessed to be optimized in some ways for use by their random forest model; for instance, an LSTM could make use of the actual price of an asset (as opposed to the average percent change in price) in ways that a random forest model cannot. さらに、(la morgia et al , 2020)によってコミュニティに提供されたデータセットは、驚くほど有用であるが、ランダムフォレストモデルによって使用するためにいくつかの方法で最適化されるように事前処理されている。
訳抜け防止モード: さらに、コミュニティに提供されたデータセット(la morgia et al, 2020)。 驚くほど便利ですが 事前に処理されています ランダムな森林モデルで 利用するために最適化されています 例えば、lstmは、ランダムな森林モデルではできない方法で、資産の実際の価格(価格の変化の平均パーセントとは対照的に)を利用することができる。
0.77
Therefore, the release of the raw dataset, if possible, would push the capabilities of deep learning models in this domain even further. したがって、生のデータセットのリリースは可能であれば、このドメインにおけるディープラーニングモデルの能力をさらに押し上げることになる。 0.74
References Andy Brown, Aaron Tuor, Brian Hutchinson, and Nicole Nichols. アンディ・ブラウン、アーロン・トゥーア、ブライアン・ハッチンソン、ニコール・ニコルズを参照。 0.53
2018. Recurrent neural network attention mechanisms for interpretable system log anomaly detection. 2018. システムログ異常検出のための再帰的ニューラルネットワーク注意機構 0.58
In Proceedings of the First Workshop on Machine Learning for Computing Systems, pages 1–8. 第1回コンピューティングシステムのための機械学習に関するワークショップの議事録では、1-8ページが紹介されている。 0.55
Coffeezilla. 2021. コーヒージャイラ 2021. 0.39
I joined a pump and dump scheme 私はポンプとダンプ計画に参加した 0.66
so you don’t have to - youtube. ですから、 youtube.comは必要ありません。 0.69
Douglas J. Cumming, Sofia Johan, and Anshum Pant. ダグラス・J・カミング、ソフィア・ヨハン、アンシュム・パント。 0.47
2019. Regulation of the crypto-economy: Managing risks, challenges, and regulatory uncertainty. 2019. 暗号経済の規制:リスク、課題、規制の不確実性を管理する。 0.53
Journal of Risk and Financial Management, 12(3). journal of risk and financial management, 12(3) を参照。 0.88
J.T. Hamrick, Farhang Rouhi, Arghya Mukherjee, Amir Feder, Neil Gandal, Tyler Moore, and Marie Vasek. J.T.ハムリック、Farhang Rouhi、Arghya Mukherjee、Amir Feder、Neil Gandal、Tyler Moore、Marie Vasek。 0.82
2021. An examination of the cryptocurrency Information Processpump-and-dump ecosystem. 2021. 暗号通貨情報処理・ダンプエコシステムの検討 0.48
ing & Management, 58(4):102506. ing & Management, 58(4):102506。 0.42
Tawfiq Hasanin and Taghi Khoshgoftaar. Tawfiq HasaninとTaghi Khoshgoftaar。 0.71
2018. The effects of random undersampling with simulated class imbalance for big data. 2018. ビッグデータのシミュレーションクラス不均衡によるランダムアンダーサンプリングの効果 0.60
In 2018 IEEE International Conference on Information Reuse and Integration (IRI), pages 70–79. 2018年、IEEE International Conference on Information Reuse and Integration (IRI)、70-79頁。 0.40
J. Kamps and B. Kleinberg. J・カンプスとB・クラインバーグ。 0.50
2018. To the moon: defining and detecting cryptocurrency pump-and-dumps. 2018. 月へ:暗号通貨のポンプとダンプの定義と検出。 0.53
Crime Sci. 犯罪サイエンティフィック。 0.55
Eamonn J. Keogh, Taposh Roy, Naik U, and Agrawal A. 2021. eamonn j. keogh、taposh roy、naik u、agrawal a. 2021。 0.64
Multi-dataset time-series anomaly detection competition, competition of international conference on knowledge discovery & data mining. マルチデータセットの時系列異常検出コンペティション、知識発見とデータマイニングに関する国際会議のコンペティション。 0.69
Yogita Khatri. 2021. ヨギタ・カトリ 2021. 0.42
Crypto exchanges saw over $14 暗号通貨の取引所は14ドルを突破 0.46
trillion in trading volume this year. 今年は1兆ドルの取引量です 0.61
Tae-Young Kim and Sung-Bae Cho. テヨン・キムとソンベイ・チョー。 0.47
2018. Web traffic anomaly detection using c-lstm neural networks. 2018. c-lstmニューラルネットワークを用いたWebトラフィック異常検出 0.58
Expert Systems with Applications, 106:66–76. アプリケーションを持つエキスパートシステム、106:66-76。 0.56
Donghwoon Kwon, Kathiravan Natarajan, Sang C Suh, Hyunjoo Kim, and Jinoh Kim. donghwoon kwon、kathiravan natarajan、sang c suh、hyunjoo kim、jino kim。 0.60
2018. An empirical study on network anomaly detection using convolutional neural networks. 2018. 畳み込みニューラルネットワークを用いたネットワーク異常検出に関する実験的検討 0.63
In ICDCS, pages 1595– 1598. ICDCS』1595-1598頁。 0.32
Massimo La Morgia, Alessandro Mei, Francesco Sassi, and Julinda Stefa. Massimo La Morgia, Alessandro Mei, Francesco Sassi, Julinda Stefa 0.34
2020. Pump and dumps in the bitcoin era: Real time detection of cryptocurrency In 2020 29th International market manipulations. 2020. ビットコイン時代のポンプとダンプ:2020年第29回国際市場操作による仮想通貨のリアルタイム検出。 0.56
Conference on Computer Communications and Networks (ICCCN), pages 1–9. コンピュータ通信・ネットワーク会議 (icccn) 1-9頁。 0.66
Kwei-Herng Lai, Daochen Zha, Junjie Xu, Yue Zhao, Guanchu Wang, and Xia Hu. Kwei-Herng Lai, Daochen Zha, Junjie Xu, Yue Zhao, Guanchu Wang, Xia Hu 0.39
2022. Revisiting time series outlier detection: Definitions and benchmarks. 2022. 時系列異常検出の再検討:定義とベンチマーク。 0.56
Teema Leangarun, Poj Tangamchit, and Suttipong Thajchayapong. teema leangarun、poj tangamchit、suttipong thajchayapongなど。 0.53
2018. Stock price manipulation detection using generative adversarial networks. 2018. 生成型逆ネットワークを用いた株価操作検出 0.56
In 2018 IEEE Symposium Series on Computational Intelligence (SSCI), pages 2104–2111. 2018年IEEE Symposium Series on Computational Intelligence (SSCI) 2104–2111頁。 0.38
Pankaj Malhotra, Anusha Ramakrishnan, Gaurangi Anand, Lovekesh Vig, Puneet Agarwal, and Gautam Shroff. Pankaj Malhotra, Anusha Ramakrishnan, Gaurangi Anand, Lovekesh Vig, Puneet Agarwal, Gautam Shroff 0.35
2016. Lstm-based encoder-decoder for multi-sensor anomaly detection. 2016. lstmを用いたマルチセンサ異常検出用エンコーダデコーダ 0.54
arXiv preprint arXiv:1607.00148. arXiv preprint arXiv:1607.00148 0.36
Ya Su, Youjian Zhao, Chenhao Niu, Rong Liu, Wei Sun, and Dan Pei. Ya Su、Youjian Zhao、Chenhao Niu、Rong Liu、Wei Sun、Dan Pei。 0.67
2019. Robust anomaly detection for multivariate time series through stochastic recurrent neural network. 2019. 確率的リカレントニューラルネットワークによる多変量時系列のロバスト異常検出 0.60
In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, KDD ’19, page 2828–2837, New York, NY, USA. The 25th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining, KDD ’19, page 2828–2837, New York, NY, USA.
訳抜け防止モード: 第25回ACM SIGKDD国際知識発見・データマイニング会議に参加して KDD ’19 page 2828–2837, New York, NY, USA.
0.80
Association for Computing Machinery. アソシエーション・フォー・コンピューティング・マシンズ(Association for Computing Machinery)の略。 0.36
David Twomey and Andrew Mann. デビッド・ツーミーとアンドリュー・マン 0.60
2020. Fraud and manipulation within cryptocurrency markets. 2020. 暗号通貨市場における不正と操作。 0.52
Corruption and fraud in financial markets: malpractice, misconduct and manipulation, 624. 金融市場の腐敗と不正:不正行為,不正行為,操作,624。 0.33
Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin
訳抜け防止モード: ashish vaswani, noam shazeer, niki parmar, jakob uszkoreit, リオン・ジョーンズ、エイダン・n・ゴメス、ルカシュ・カイザー、イリア・ポロスクヒン。
0.52
2017. Attention is all you need. 2017. 注意はあなたが必要とするすべてです。 0.53
CoRR, abs/1706.03762. CoRR, abs/1706.03762。 0.58
Jiehui Xu, Haixu Wu, Jianmin Wang, and Mingsheng Long. Jiehui Xu、Haixu Wu、Jianmin Wang、Mingsheng Long。 0.66
2021. Anomaly transformer: Time series anomaly detection with association discrepancy. 2021. 異常変圧器 : 時系列異常検出と相関異常 0.54
CoRR, abs/2110.02642. コラー、abs/2110.02642。 0.32
Wenjie Yang, Ruofan Wang, and Bofan Wang. ウェンジー・ヤン、ルーファン・ワン、ボファン・ワン。 0.37
2020. Detection of anomaly stock price based on time series deep learning models. 2020. 時系列深層学習モデルに基づく異常株価の検出 0.53
In 2020 Management Science Informatization and Economic Innovation Development Conference (MSIEID), pages 110–114. 2020年、経営科学情報化経済革新開発会議(msieid)110-114頁。 0.67
                 ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。