論文の概要、ライセンス

# (参考訳) 自己監視型異常検出:調査と展望 [全文訳有]

Self-Supervised Anomaly Detection: A Survey and Outlook ( http://arxiv.org/abs/2205.05173v2 )

ライセンス: CC BY 4.0
Hadi Hojjati, Thi Kieu Khanh Ho, Narges Armanfard(参考訳) 過去数年間、まれな事象の検出を主眼とする機械学習のサブフィールドである異常検出は、ディープラーニングモデルが前例のない成長を遂げた後、大幅な改善をみせた。 近年,自己教師付き学習の出現により,最先端精度をかなり超えた新しい異常検出アルゴリズムが開発されている。 本稿では,自己監督型異常検出における現在のアプローチを概観する。 共通のアプローチの技術的詳細を説明し、その強みと欠点について論じる。 また,これらのモデルの性能を,他の最先端の異常検出モデルと比較した。 最後に、既存のアルゴリズムを改善するための様々な新しい方向について論じる。

Over the past few years, anomaly detection, a subfield of machine learning that is mainly concerned with the detection of rare events, witnessed an immense improvement following the unprecedented growth of deep learning models. Recently, the emergence of self-supervised learning has sparked the development of new anomaly detection algorithms that surpassed state-of-the-art accuracy by a significant margin. This paper aims to review the current approaches in self-supervised anomaly detection. We present technical details of the common approaches and discuss their strengths and drawbacks. We also compare the performance of these models against each other and other state-of-the-art anomaly detection models. Finally, we discuss a variety of new directions for improving the existing algorithms.
公開日: Thu, 12 May 2022 08:58:23 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
PREPRINT 1 Self-Supervised Anomaly Detection: プレプリント 1 自己監督型異常検出 0.48
A Survey and Outlook アンケート調査と展望 0.62
Hadi Hojjati1,2,†,∗, Thi Kieu Khanh Ho1,2,† and Narges Armanfard1,2 hadi hojjati1,2, ,∗, thi kieu khanh ho1,2, およびnarges armanfard1,2 0.74
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] G L . s c [ ] G L。 sc [ 0.47
2 v 3 7 1 5 0 2 v 3 7 1 5 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
Abstract—Over the past 抽象—過去はともかく 0.56
few years, anomaly detection, a subfield of machine learning that is mainly concerned with the detection of rare events, witnessed an immense improvement following the unprecedented growth of deep learning models. ここ数年 異常検出は 機械学習のサブフィールドで 希少な出来事の検出に 関係しています ディープラーニングモデルが前例のない成長を遂げた後で 大幅な改善が見られた 0.82
Recently, the emergence of self-supervised learning has sparked the development of new anomaly detection algorithms that surpassed state-of-the-art accuracy by a significant margin. 近年,自己教師付き学習の出現により,最先端精度をかなり超えた新しい異常検出アルゴリズムが開発されている。 0.81
This paper aims to review the current approaches in self-supervised anomaly detection. 本稿では,自己監督型異常検出における現在のアプローチを概観する。 0.66
We present technical details of the common approaches and discuss their strengths and drawbacks. 共通のアプローチの技術的詳細を説明し、その強みと欠点について論じる。 0.63
We also compare the performance of these models against each other and other state-of-the-art anomaly detection models. また,これらのモデルの性能を,他の最先端の異常検出モデルと比較した。 0.79
Finally, we discuss a variety of new directions for improving the existing algorithms. 最後に、既存のアルゴリズムを改善するための様々な新しい方向について論じる。 0.76
1 Index Terms—Anomaly Detection, Self-Supervised Learning, 1 Index Terms - 異常検出、自己監視学習、 0.51
Contrastive Learning, Representation Learning. 対照的な学習 表現学習 0.63
I. INTRODUCTION I. イントロダクション 0.64
A NOMALY detection detection (AD) is the task of identi- NOMALY Detection Detection (AD) はアイデンティティーのタスクである 0.71
fying samples that differ significantly from the majority of data and often signals an irregular, fake, rare, or fraudulent observation [1], [2]. 大部分のデータと大きく異なり、しばしば不規則、偽、稀、または不正な観察 [1], [2] を示す。
訳抜け防止モード: 大部分のデータと大きく異なり、しばしば不規則、偽り、稀、または不正な観察を示すフィッシングサンプル [1]。 [ 2 ] .
0.77
In the literature, other terms such as outlier [1], novelty [3], out of distribution [4], and deviation [5] are also used instead of anomaly. 文献では、異常の代わりに、外れ値[1]、新規性[3]、分布外[4]、偏差[5]といった他の用語も用いられる。 0.62
Anomaly detection is particularly useful in cases where we are unable to define all existing classes during training. 異常検出は、トレーニング中に既存のクラスをすべて定義できない場合に特に有用です。 0.68
This makes AD algorithms useful to a broad range of application, including but not limited to, intrusion detection in cybersecurity [6], [7], fraud detection in finance and telecommunication [8]–[10], acoustic novelty detection [11], [12], stock market analysis [13], event detection in earth science fields [14], [15], physics [16], [17], astronomy [18], [19], medical diagnosis and disease detection [20]–[22], bioinformatics [23], and genetics [24]. これにより、サイバーセキュリティ [6], [7], 金融および通信における不正検出 [8]–[10], 音響ノベルティ検出 [11], [12], 株式市場分析 [13], 地球科学分野における事象検出 [14], [15], 物理学 [16], [17], 天文学 [18], [19], 医学診断と疾患検出 [20]–[22], バイオインフォマティクス [23], 遺伝学 [24] など、幅広い応用において広告アルゴリズムが有用になる。 0.67
Over the past few decades, a flurry of machine learning models are developed for anomaly detection. 過去数十年間、異常検出のための機械学習モデルが数多く開発されてきた。 0.78
Kernel Density Estimation (KDE) [25], One-Class Support Vector Machine (OCSVM) [26], and Isolation Forests (IF) [27] are among the popular classical (non-deep) approaches in anomaly detection. カーネル密度推定(KDE) [25], ワンクラスサポートベクトルマシン(OCSVM) [26], アイソレーションフォレスト(IF) [27] は, 異常検出における古典的(非深度)アプローチの1つである。
訳抜け防止モード: カーネル密度推定(KDE ) [25 ], One - Class Support Vector Machine (OCSVM ) [26 ] 孤立林 (IF) [27 ] は, 異常検出における古典的(非深い)アプローチの1つである。
0.87
These algorithms are still widely used for solving anomaly detection tasks, but their accuracy degrades in higherdimensional problems. これらのアルゴリズムは依然として異常検出タスクの解法として広く用いられているが、高次元問題では精度が低下する。 0.62
In recent years, deep models have become popular and widely used in a wide range of applications. 近年、ディープモデルが普及し、広範囲のアプリケーションで広く利用されている。 0.68
These methods can significantly outperform traditional non-deep learning これらの手法は従来の非深層学習を著しく上回る 0.61
1Department of Electrical and Computer Engineering, McGill University 2Mila - Quebec AI Institute, Montreal, QC, Canada. マギル大学2ミラ校 (McGill University 2Mila) - カナダのモントリオールにあるケベックAI研究所。
訳抜け防止モード: 第1部 マギル大学電気・計算機工学部2mila-ケベックai研究所 モントリオール、qc、カナダ。
0.74
†Both authors contributed equally to the paper. どちらの著者も論文に等しく貢献した。 0.58
∗Corresponding author: hadi.hojjati@mcgill. ca. 著者は hadi.hojjati@mcgill. ca。 0.64
1This work has been submitted to the IEEE for possible publication. 1 この作業は、IEEEに提出される可能性がある。 0.59
Copyright may be transferred without notice, after which this version may no longer be accessible. 著作権は通知なしで転送され、その後、このバージョンはアクセスできなくなる。 0.67
based algorithms and achieve near-human-level accuracy in tasks such as object recognition and machine translation. 物体認識や機械翻訳などのタスクにおいて、人間に近い精度を達成する。 0.63
A key strength of deep models is that they are capable of automatically learning lower-dimensional representations from raw data [28]. 深層モデルの重要な強みは、生データから低次元表現を自動的に学習できることだ [28]。 0.79
Because of this, they are commonly used instead of the manual feature extraction process employed in the traditional machine learning frameworks. このため、従来の機械学習フレームワークで使用される手動の機能抽出プロセスの代わりに一般的に使用される。 0.84
Deep-learning based models for AD can be roughly categorized into three groups: The first category includes the models that use deep neural networks for learning a lower-dimensional representation of the high-dimensional data, and then apply a classic anomaly detection algorithm (such as OCSVM [26]) to the obtained lower-dimensional representation [29]. 第一のカテゴリは、高次元データの低次元表現を学習するためにディープニューラルネットワークを使用するモデルを含み、得られた低次元表現[29]に古典的な異常検出アルゴリズム(ocsvm[26]など)を適用する。
訳抜け防止モード: ADの深層学習に基づくモデルは、大まかに3つのグループに分類される。 第1のカテゴリは、ディープニューラルネットワークを用いたモデルを含む。 高次元データの低次元表現を学ぶ そして、得られた低次元表現 [29 ] に古典的異常検出アルゴリズム(OCSVM [26 ] など)を適用する。
0.83
By mapping the data into a lower-dimensional space, the traditional non-deeplearning AD approaches do not face the curse of dimensionality issue, hence can provide a fairly good detection accuracy. データを低次元空間にマッピングすることで、従来の非ディープラーニングADアプローチは次元性の問題の呪いに直面しないため、かなり優れた検出精度が得られる。 0.74
The second group of methods employs deep neural networks to reconstruct the input data and directly calculate an anomaly score based on the data reconstruction loss. 第2の手法群は、深層ニューラルネットワークを用いて入力データを再構成し、データ再構成損失に基づいて異常スコアを直接計算する。 0.80
The most commonly used network architectures are based on Autoencoders (AEs) [30] and Generative Adversarial Networks (GANs) [21], [31]. 最も一般的に使用されるネットワークアーキテクチャは、autoencoder (aes) [30] とgenerative adversarial networks (gans) [21], [31] に基づいている。 0.77
The underlying assumption is that if a network is trained to only reconstruct the normal data, a significant reconstruction error occurs when the network faces an anomaly. ネットワークが通常のデータのみを再構築するように訓練された場合、ネットワークが異常に直面したときに重大な再構成エラーが発生するという前提がある。 0.68
The third category includes algorithms that combine both of the above mentioned approaches [32], [33]. 第3のカテゴリは、上記のアプローチ [32], [33] を両方組み合わせたアルゴリズムを含む。 0.86
They jointly train a neural network for feature extraction and an anomaly detector on the latent space of the network. 彼らはニューラルネットワークを訓練し、特徴抽出と、ネットワークの潜在空間上の異常検出を行う。 0.75
The anomaly detector provides an anomaly score for an input data. 異常検出装置は、入力データの異常スコアを提供する。 0.80
Although the above methods use different approaches for AD, the concept remains the same, i.e. normal samples have similar feature distribution in the latent space of the trained network, and abnormal in line with the ordinary anticipated behaviour of normality2. 上記の手法はADに対して異なるアプローチを用いるが、通常のサンプルはトレーニングされたネットワークの潜在空間に類似した特徴分布を持ち、通常の予測された正規性2の振る舞いと一致しない。 0.77
instances are not Anomaly detection algorithms face unique challenges due to the nature of task they are dealing with. インスタンスは 異常検出アルゴリズムは、処理するタスクの性質上、ユニークな課題に直面している。 0.55
For instance, in many anomaly detection problems, we have an imbalanced dataset with a large volume of normal data and a few anomalies. 例えば、多くの異常検出問題では、大量の正常データといくつかの異常を持つ不均衡データセットがあります。 0.80
This is due to the fact that anomalies are usually scarce or expensive to occur in real-world settings. これは、通常、現実の設定で発生する異常やコストが少ないためである。
訳抜け防止モード: これは 異常は通常、現実の世界の設定で発生することは少なく、高価である。
0.81
Even in some cases, these small portion of abnormal samples are noise-contaminated, which makes the detection task more complicated. これらの異常サンプルのごく一部がノイズに汚染され、検出作業がより複雑になるケースもある。 0.77
Another important issue is that anomalies cannot be considered as a single class of data, and a detection system might be exposed to new types of anomalies that it has never encountered during its training もうひとつの重要な問題は、異常が単一のデータクラスとは考えられず、検出システムはトレーニング中に遭遇したことのない新しいタイプの異常に晒される可能性があることだ。 0.73
2In the rest of the paper, the term normal has no relationship with the 2他の論文では、ノーマルという用語は、ノーマルとは無関係である。 0.47
normal Gaussian distribution unless specified otherwise. 正規のガウス分布を 指定しない限り 0.72
英語(論文から抽出)日本語訳スコア
PREPRINT 2 process. プレプリント 2 プロセス。 0.54
These challenges should be carefully considered for designing an appropriate algorithm. これらの課題は適切なアルゴリズムを設計するために慎重に考慮する必要がある。 0.60
In the literature, both supervised and unsupervised learning techniques are employed for anomaly detection [33], [34]. 文献では,教師なしと教師なしの両方の学習技術を用いて異常検出[33],[34]を行う。 0.76
Self-supervised learning (SSL) is a subcategory of unsupervised learning. 自己教師あり学習 (SSL) は教師なし学習のサブカテゴリである。 0.53
Recent studies show that self-supervised learning can achieve an excellent performance comparable to the fully-supervised baselines in several challenging tasks such as visual representation learning, object detection, and natural language processing [35], [36]. 近年の研究では,視覚表現学習,オブジェクト検出,自然言語処理[35],[36]などの課題において,完全教師付きベースラインに匹敵する優れた性能が得られることが示されている。 0.84
Inspired by this, several selfsupervised methods are proposed for anomaly detection, which significantly improve the state-of-the-art [37]–[42]. これに触発されて、異常検出のためのいくつかの自己教師あり手法が提案され、最先端 [37]–[42] を大幅に改善した。 0.53
SSL learns a generalizable representation from unlabelled data by solving a supervised proxy task which is often unrelated to the target task, but can help the network to learn a better representation. SSLは、しばしばターゲットタスクとは無関係な教師付きプロキシタスクを解決することで、不正なデータから一般化可能な表現を学習するが、ネットワークがより良い表現を学ぶのに役立つ。 0.67
A diverse set of tasks such as denoising, rotation predicting, segmentation, or colorization can be used as the supervised proxy task. 教師付きプロキシタスクとして、認知、回転予測、セグメンテーション、色付けといった多様なタスクセットを使用することができる。 0.56
There exist a number of survey papers that review and categorize existing anomaly detection models [43]–[45]. 既存の異常検出モデル[43]-[45]をレビューし分類する調査論文が多数存在する。 0.72
However, to the best of our knowledge, there is no survey paper that explores self-supervised anomaly detection methods. しかし,我々の知る限り,自己監督型異常検出手法を探求する調査論文は存在しない。 0.70
This paper aims to review the SSL-based approaches in anomaly detection for the first time and categorize the state-of-the-art techniques. 本稿では,異常検出におけるSSLベースのアプローチを初めて検討し,最先端技術について分類する。 0.75
We can summarize the contribution of our work as follows: 私たちは作品の貢献を次のようにまとめることができる。 0.62
• We briefly review the current approaches in anomaly detection in order to locate the self-supervised anomaly detection in the context of anomaly detection research. • 異常検出研究の文脈における自己監督型異常検出の発見のために, 異常検出における現在のアプローチを概観する。 0.86
• We discuss the current approaches in self-supervised • 自己監督の現在のアプローチについて論じる 0.68
anomaly detection as well as its areas of application. 異常検出とその適用領域。 0.47
• We divide the existing self-supervised anomaly detection algorithms into two high-level categories based on their requirement of negative samples during training. • 既存の自己教師付き異常検出アルゴリズムを,訓練中の陰性サンプルの要求に基づいて2つの高レベルカテゴリに分けた。 0.75
SSLbased models are different from each other based on their proxy task and architecture. sslベースのモデルは、プロキシタスクとアーキテクチャに基づいて互いに異なる。 0.69
Hence, it is important to categorize these methods in a way that covers all of them. したがって、これらの手法を全てをカバーする方法で分類することが重要である。 0.84
For each type of methods, we describe the techniques and assumptions and highlight the advantages and disadvantages. それぞれの手法について,手法と仮定を説明し,その利点と欠点を強調する。 0.71
• We discuss possible future directions in self-supervised ・自己監督の今後の方向性について論じる 0.45
anomaly detection research. II. 異常検出研究 II。 0.67
RELATED WORKS In the past few decades, the anomaly detection problem is extensively explored in various research and application domains. 関連作業 過去数十年間、異常検出問題は様々な研究や応用分野において広く研究されてきた。 0.69
Several survey articles attempted to group the anomaly detection algorithms into distinctive categories. いくつかの調査論文は、異常検出アルゴリズムを異なるカテゴリに分類しようとした。 0.62
Hodge and Austin (2004) [46] and Agyemang et al (2006) [47] are two examples of the early studies that categorized the existing algorithms into four groups and extensively discuss the techniques that are used in each category. Hodge and Austin (2004) [46] と Agyemang et al (2006) [47] は、既存のアルゴリズムを4つのグループに分類し、各カテゴリで使用されるテクニックを広く議論する初期の研究の例である。 0.88
In another prominent work, Chandola et al (2009) [1] surveyed the existing anomaly detection algorithms and divided them into six distinctive categories. 別の顕著な研究として、Chandola et al (2009) [1] は既存の異常検出アルゴリズムを調査し、それらを6つの特徴的なカテゴリに分類した。
訳抜け防止モード: 別の顕著な研究で、Chandola et al (2009 ) [ 1 ] は既存の異常検出アルゴリズムを調査した。 6つのカテゴリーに分けました
0.80
In addition to describing the technical details of each method, Chandola et al identified the underlying assumptions that are implicitly made regarding the anomalies. 各メソッドの技術的な詳細を説明することに加えて、chandola氏らは、その異常に関して暗黙的になされる前提を特定した。 0.58
They also discussed the advantages, disadvantages and computational complexity of each technique. 彼らも それぞれの手法の利点、欠点、計算複雑性について論じました。 0.64
Furthermore, they extensively reviewed the application areas of the methods and highlighted the challenges face in each domain. さらに、メソッドのアプリケーション領域を広範囲にレビューし、各ドメインで直面する課題を強調した。 0.65
Recently, deep learning methods inspired anomaly detection researchers, and many new algorithms were proposed in this domain. 近年,深層学習は異常検出研究者にインスパイアされ,多くの新しいアルゴリズムが提案されている。 0.78
In the recent years, deep anomaly detection is the topic of several review papers. 近年、深部異常検出はいくつかのレビュー論文の話題となっている。 0.80
Chalapathy and Chawla (2019) [43] was one of the first papers that presented a comprehensive review of deep anomaly detection methods. Chalapathy and Chawla (2019) [43] は、深部異常検出手法の包括的なレビューを行った最初の論文の1つである。 0.81
They categorized the existing methods based on their underlying assumptions and explained the pros and cons of each approach. 彼らは、基礎となる前提に基づいて既存の方法を分類し、それぞれのアプローチの長所と短所を説明しました。 0.55
Chalapathy and Chawla (2019) [43] also thoroughly explored applications of deep anomaly detection and assessed the effectiveness of each method. Chalapathy and Chawla (2019) [43] もまた、深部異常検出の応用を徹底的に検討し、各手法の有効性を評価した。 0.67
In another similar survey, Pang et al (2020) [44] reviewed contemporary deep AD methods. 同様の調査で、Pang et al (2020) [44] は同時代の深層AD法をレビューした。 0.67
They first discussed the challenges and complexities that anomaly detection faces, and then they categorized the existing deep methods into three high-level categories and eleven fine-grained subcategories. 彼らはまず、異常検出が直面する課題と複雑さについて論じ、その後、既存のディープメソッドを3つのハイレベルカテゴリと11のきめ細かいサブカテゴリに分類した。 0.56
Pang et al (2020) [44] described how each category of methods addressed the existing challenges in anomaly detection. pang et al (2020) [44] は、各メソッドのカテゴリが既存の異常検出の課題にどのように対処したかを説明した。
訳抜け防止モード: Pang et al (2020 ) [44 ] それぞれの手法は、異常検出における既存の課題に対処しました。
0.75
In addition, they identified the key assumptions and intuitions of each model. さらに、各モデルの主要な仮定と直観を同定した。 0.60
Another important aspect of their work is that they gathered a list of publicly available codes and real-world datasets that contain anomalies and can be used to benchmark the existing algorithms. もうひとつの重要な側面は、公開コードと、異常を含む現実世界のデータセットのリストを収集し、既存のアルゴリズムのベンチマークに使用できることだ。 0.70
In the past few years, most review papers in the field focused on specific sets of algorithms, such as deep or shallow methods. 過去数年間、この分野の多くのレビュー論文は、深層や浅層といった特定のアルゴリズムセットに焦点を当てている。 0.71
However, Ruff et al (2021) [45] presented an extensive survey of anomaly detection methods. しかし、Ruff et al (2021) [45] は異常検出方法の広範な調査を行った。 0.80
They unified classic shallow methods with recent deep approaches and highlighted the connections and similarities between these two types of algorithms. 彼らは最近の深層アプローチで古典的な浅層法を統一し、これらの2種類のアルゴリズム間の接続と類似点を強調した。 0.64
Ruff et al (2021) [45] also provided an in-detail description and accurate taxonomy of common practices and challenges in anomaly detection. Ruff et al (2021) [45] は、異常検出における共通プラクティスと課題の詳細な記述と正確な分類も提供した。 0.82
In addition to the above mentioned studies, several other review papers are published in this research field that either focus on a specific domain of application or a particular type of method. 上記の研究に加えて、特定の分野のアプリケーションや特定のタイプのメソッドに焦点を当てたいくつかのレビュー論文が本研究分野に発表されている。 0.84
For example, the two survey papers by Di Mattia et al (2019) [48] and Xia et al (2022) [49] are dedicated to reviewing the GAN-based anomaly detection methods. 例えば、Di Mattia et al (2019) [48] と Xia et al (2022) [49] の2つの調査論文は、GANに基づく異常検出手法のレビューに費やされている。 0.75
They discussed these models’ theoretical bases and practical applications and provided a detailed description of existing challenges and future directions in GAN-based anomaly detection. 彼らはこれらのモデルの理論的基盤と実用的応用について議論し、GANに基づく異常検出における既存の課題と今後の方向性を詳細に説明した。 0.59
Both of the papers also carried out empirical evaluations to compare the performance of different algorithms. どちらの論文も異なるアルゴリズムの性能を比較する実験的な評価を行った。 0.79
In another study, Villa-Perez et al (2021) [50] empirically evaluated the performance of 29 semi-supervised algorithms for anomaly detection. 別の研究では、villa-perez et al (2021) [50] は29の半教師付きアルゴリズムの性能を経験的に評価した。 0.61
III. ANOMALY DETECTION: TERMINOLOGY AND III。 異常検出:端末および装置 0.63
COMMON PRACTICES “Anomaly detection” is commonly used as an umbrella term for all algorithms that aim to identify samples that deviate from the normal patterns. 共通技術 異常検出」は、通常パターンから逸脱するサンプルを識別することを目的とした全てのアルゴリズムの傘用語として一般的に用いられる。 0.56
Various anomaly detection models are developed depending on the availability of data labels, types of anomalies, and applications. さまざまな異常検出モデルが,データラベル,異常の種類,アプリケーションによって開発されている。 0.82
In addition, the nomenclature また 命名法も 0.56
英語(論文から抽出)日本語訳スコア
PREPRINT 3 of anomaly detection is not consistent in the literature. プレプリント 3 異常検出は文献に一致していません 0.54
To avoid confusion, in the following, we define and describe the relevant terminologies used throughout this paper. 混乱を避けるため,本論文では,本論文で用いられる関連する用語を定義し,記述する。 0.74
A. Types of Anomalies In the classic anomaly detection literature, anomalies are classified into three categories based on their nature [1], [44]: 1) Point Anomalies: A point anomaly is an individual anomalous sample, which often shows an irregularity or deviation from the standard pattern. A.異常の種類 古典的な異常検出文献では、異常は、その性質に基づいて3つのカテゴリに分類される [1], [44]: 1) 点異常: 点異常は個々の異常標本であり、しばしば標準パターンから不規則または逸脱を示す。 0.76
A single cat image in the dataset of dog images or a fraudulent insurance claim are examples of point anomalies. 犬の画像や不正保険請求のデータセットにある単一の猫画像は、ポイント異常の例である。 0.81
Most studies on the anomaly detection literature focus on this type of anomaly [43]. 異常検出文献に関するほとんどの研究は, このタイプの異常に焦点をあてている[43]。 0.79
2) Contextual Anomalies: A contextual anomaly, which is also known as a ”conditional anomaly”, is a data point that is considered anomalous in a particular context. 2) 文脈異常:「条件異常」とも呼ばれる文脈異常は、特定の文脈において異常と見なされるデータポイントである。 0.63
The context should be defined as a part of the problem formulation. コンテキストは問題定式化の一部として定義されるべきです。 0.74
For instance, a value of 120 km/h is considered an abnormal recording for the speed of a bike, whereas it is not considered an abnormal recording for the speed of a car. 例えば、120km/hの値は自転車の速度の異常記録と見なされるが、車の速度の異常記録とはみなされない。 0.65
3) Collective Anomalies: Collective or group anomalies are a subset of data points that are collectively anomalous with respect to the entire dataset. 3) 集合異常: 集合異常またはグループ異常は、データセット全体に関して集合的異常であるデータポイントのサブセットである。 0.82
Each individual sample of a collective anomaly might not be an abnormal point by itself. 集合異常の個々のサンプルは、それ自体が異常点ではないかもしれない。 0.71
For example, a series of high value credit card transactions that occur rapidly and subsequently might be an indicator of a stolen credit card, whereas each of those transactions might come across as normal. 例えば、迅速かつその後の一連の高価値なクレジットカード取引は、盗まれたクレジットカードの指標となり得るが、これらの取引は、それぞれが正常に遭遇する可能性がある。 0.68
With the rise of deep anomaly detection methods, in order to make distinction between different anomaly types that deep models aim to detect, two more anomaly types are suggested by Ruff et al (2021) [45]: 深層異常検出手法の台頭に伴い,深層モデルが検出しようとする異なる異常タイプを区別するために,ruff et al (2021) [45] により,さらに2つの異常タイプが提案されている。 0.89
4) Sensory (low-level) Anomalies: Low-level or sensory anomalies refer to the irregularities that occur in the low-level feature hierarchy, such as textures or edges of images. 4) 知覚(低レベル)異常:低レベルまたは知覚異常とは、テクスチャや画像のエッジなど低レベルの特徴階層で発生する異常をいう。 0.78
An example of a low-level anomaly is a fractured texture. 低レベルの異常の例として、骨折したテクスチャがある。 0.58
Lowlevel anomaly detection is helpful in detecting defects and artifacts in industrial applications. 低レベルの異常検出は、産業応用における欠陥やアーティファクトの検出に有用である。 0.66
The newly released MVTecAD dataset [51] contains numerous examples of sensory anomalies and defects in industrial application. 新たにリリースされたMVTecADデータセット[51]には,産業応用におけるセンサ異常と欠陥の例が多数含まれている。 0.60
5) Semantic (high-level) Anomalies: High-level or semantic anomalies are samples that are coming from a different class comparing to the normal data. 5) セマンティクス(高レベル)異常: 高レベルまたはセマンティクス異常は、通常データと比較して異なるクラスから来るサンプルである。 0.79
For instance, images of any object other than cats are considered a semantic anomaly when we train our network to detect cat images as normal samples. 例えば、猫以外の物体の画像は、通常のサンプルとして猫の画像を検出するためにネットワークをトレーニングする際に意味異常と見なされる。 0.75
It is important to note that both the sensory and semantic anomalies might overlap with other types of anomalies. 感覚異常も意味異常も他の種類の異常と重複する可能性があることに注意する必要がある。 0.66
However, it is still essential to distinguish between semantic and sensory anomalies to avoid confusion in our discussions throughout the paper. しかし,本論文全体での議論の混乱を避けるためには,意味的異常と感覚的異常を区別することが不可欠である。 0.64
B. Availability of Data Labels b. データラベルの可用性 0.83
For designing an appropriate algorithm, it is crucial to consider the availability of labels. 適切なアルゴリズムを設計するには,ラベルの有効性を考えることが重要である。 0.73
Based on the label availability, we can divide AD algorithms into three settings: ラベルの可用性に基づいて、ADアルゴリズムを3つの設定に分けることができます。 0.62
1) Unsupervised Anomaly Detection: In this setting, which is arguably the most common in anomaly detection, we assume that only unlabeled data is available for training the model [45], [46]. 1) 教師なし異常検出: この設定では, 異常検出において最も一般的なものとして, モデル [45], [46] のトレーニングにはラベルなしのデータのみが利用できると仮定する。 0.82
In the simplified form of unsupervised learning, we commonly assume that the data is noise-free and its distribution is the same as the normal data, e g P ≡ P+. 教師なし学習の単純化形式では、一般に、データはノイズフリーであり、その分布は通常のデータ、例えば P > P+ と同じであると仮定する。 0.77
If noisy data or undetected anomalies are present in the training dataset, these assumptions are violated, hence the developed models are not robust. トレーニングデータセットにノイズの多いデータや検出されていない異常が存在する場合、これらの仮定は違反するため、開発モデルは堅牢ではない。 0.62
A more realistic approach can be to assume that the data distribution P is a mixture of normal data and anomalies with a pollution rate η ∈ (0, 1), e g P = (1 − η)P+ + ηP−. より現実的なアプローチとして、データ分布 P が η ∈ (0, 1), e g P = (1 − η)P+ + ηP− の通常のデータと異常の混合であると仮定することができる。 0.85
In this approach, it is crucial to determine η and make a prior assumption about the distribution of anomalies P−, which may degrade the method generalization. このアプローチでは、η を決定することが不可欠であり、メソッドの一般化を劣化させる可能性のある異常 P− の分布について事前の仮定を行う。 0.71
Overall, the unsupervised settings for anomaly detection gained a great interest in learning commonalities of data from a complex and high-dimensional space without the need to access annotated training samples. 全体として、教師なしの異常検出設定は、注釈付きトレーニングサンプルにアクセスすることなく、複雑で高次元の空間からデータの共通性を学ぶことに大きな関心を寄せた。 0.60
Note that the selfsupervised learning methods, that are the focus of this paper, can be considered as a subgroup of unsupervised learning techniques. 本論文の焦点である自己教師あり学習手法は教師なし学習手法のサブグループと見なすことができる。
訳抜け防止モード: 本論文の焦点となる自己教師型学習手法に留意すること。 教師なしの学習技法のサブグループと見なすことができる。
0.66
the training dataset トレーニングデータセットは 0.75
2) Semi-supervised Anomaly Detection: In this setting, we assume that is partially labelled and includes both labelled and unlabeled samples. 2) 半教師あり異常検出: この設定では、部分的にラベル付けされ、ラベル付きサンプルとラベルなしサンプルの両方を含むと仮定する。 0.62
Semi-supervised algorithms are suitable for scenarios where it is costly to annotate the whole data. 半教師付きアルゴリズムは、データ全体に注釈をつけるのにコストがかかるシナリオに適している。 0.61
This setting is also prevalent in the anomaly detection field because usually both labelled and unlabeled data are present but labelling the data often requires expert knowledge, or in some cases, such as industrial and biomedical applications, anomalies are costly to occur. この設定は、通常ラベル付きデータとラベルなしデータの両方が存在するが、ラベル付けされたデータはしばしば専門家の知識を必要とするため、異常検出の分野でも一般的である。 0.66
Incorporating a small set of anomaly examples during training could significantly improve the detection performance and maximize the robustness of a model [52]–[54], especially compared to the unsupervised learning techniques. トレーニング中に少数の異常例を組み込むことで、特に教師なし学習技術と比較して、検出性能が大幅に向上し、モデル[52]–[54]のロバスト性が最大化できる。
訳抜け防止モード: トレーニング中に少数の異常事例を取り入れる 検出性能を大幅に向上させ、モデル[52]–[54 ]の堅牢性を最大化することができる。 特に教師なしの学習技術に比べたら
0.77
However, due to the scarce availability of the labelled abnormal samples, semi-supervised setting is likely prone to overfitting. しかしながら、ラベル付き異常サンプルの可用性が低かったため、半教師付き設定は過度に適合しがちである。 0.53
Therefore, making the correct assumptions about the distribution of anomalies, i.e. P−, is crucial for accurately incorporating the labelled anomalies in the training process. したがって、ラベル付き異常をトレーニングプロセスに正確に組み込むには、P−というような異常分布に関する正しい仮定が不可欠である。 0.75
Some existing papers refer to the task of “Learning from Positive and Unlabeled examples” (LPUE) as semi-supervised learning [1]. 既存の論文では、"Learning from Positive and Unlabeled Example"(LPUE)を半教師付き学習[1]として言及している。 0.73
Note that based on the above definitions, LPUE is an unsupervised learning technique where the entire training data belongs to the normal class. LPUEは、上記の定義に基づいて、訓練データ全体が通常のクラスに属する教師なしの学習技術である。 0.67
LPUE is commonly used in the literature when benchmarking the anomaly detection algorithms using the popular datasets, such as CIFAR-10 and MNIST [33], [37]. LPUEは、CIFAR-10やMNIST[33]、[37]といった一般的なデータセットを用いて異常検出アルゴリズムをベンチマークする際に一般的に用いられる。 0.69
In this task, the samples of one class of the dataset are deemed normal and are used during the training, and samples of other classes are considered to be anomalous [32]. このタスクでは、データセットの1つのクラスのサンプルは正常と見なされ、トレーニング中に使用され、他のクラスのサンプルは異常[32]と見なされる。 0.77
”One-class AD” is another term which is used for referring to the LPUE task. one-class ad” は lpue タスクを参照するために使われる別の用語である。 0.62
3) Supervised Anomaly Detection: In supervised anomaly detection, we assume that the dataset is fully labelled. 3) 監視された異常検出: 教師付き異常検出では、データセットが完全にラベル付けされていると仮定する。 0.64
When anomalies are easily annotated, it is more beneficial to adopt supervised methods [55]–[58]. 異常が容易にアノテートされる場合、教師付きメソッド [55]–[58] を採用する方がより有益である。 0.70
At this point, it is essential to make a distinction between supervised anomaly detection and binary classification problems. この時点では,教師付き異常検出とバイナリ分類問題を区別することが不可欠である。 0.69
One might claim that if the normal and abnormal data are available during the 正常なデータと異常なデータが利用可能であれば、その間に利用できると主張する人もいるかもしれない。 0.43
英語(論文から抽出)日本語訳スコア
PREPRINT 4 training phase, the problem can be formulated as a supervised binary classification problem and will not be an anomaly detection task anymore. プレプリント 4 トレーニングフェーズでは、問題は教師付きバイナリ分類問題として定式化することができ、もはや異常検出タスクではなくなる。 0.49
However, we should note that formally speaking, an anomaly is a sample that does not belong to the normal class distribution P+. しかし、正式に言えば、異常は正規クラス分布 P+ に属さない標本であることに注意する必要がある。 0.72
The anomaly class includes a broad range of data points that are not accessible/known during the training phase. 異常クラスには、トレーニングフェーズ中にアクセスできない幅広いデータポイントが含まれている。 0.69
The common practice in the AD methods is to assume that, in the training phase, there are enough labeled samples from the normal class that can reveal P+ while the limited available abnormal samples can only partially reveal P−. adメソッドの一般的なプラクティスは、トレーニングフェーズでは、通常クラスからのラベル付きサンプルが十分に存在し、p+を露呈できるが、利用可能な異常サンプルは部分的にはp−を露呈できない、という仮定である。 0.67
Hence, unlike binary classification which aims at learning a decision boundary that separates the two classes, the goal for AD is to discover the normal class boundaries. したがって、2つのクラスを分離する決定境界の学習を目的としたバイナリ分類とは異なり、ADの目標は通常のクラス境界を見つけることである。 0.83
Although the supervised settings can achieve higher accuracy and faster detection speed, they are rarely used to formulate the anomaly detection problems compare to unsupervised and semi-supervised models. 教師あり設定は精度が高く、検出速度も速いが、教師なしモデルや半教師なしモデルと比較して異常検出問題を定式化するのにはほとんど使われない。 0.45
This is because, in most real world applications, it is impossible to know and have access to all existing anomaly classes. これは、ほとんどの現実世界のアプリケーションでは、既存のすべての異常クラスを知ることは不可能であり、アクセスできないためである。 0.69
C. Anomaly, Outlier, Novelty, Out-of-Distribution Detection C. Anomaly, Outlier, Novelty, Out-of-distribution Detection 0.37
Some studies use the terms anomaly, novelty, outlier and out-of-distribution interchangeably, while others distinct them. anomaly, novelty, outlier, out-of-distribution という用語を相互に使用する研究もあるが、別の研究ではこれらを区別している。 0.46
Although most of the algorithms for detecting these are similar, their significance and application might differ. これらを検出するアルゴリズムの多くは類似しているが、その重要性と応用は異なるかもしれない。
訳抜け防止モード: 検出するアルゴリズムは ほとんどが似ていますが その意義と応用は異なるかもしれない。
0.76
In this paper, we follow the terminology that was suggested by Ruff et al (2021) [45] and define each of the tasks as follows: 本稿では,ruff et al (2021) [45] によって提案された用語に従い,それぞれのタスクを次のように定義する。 0.88
1) Anomaly Detection: If we denote the distribution of normal instances by P+, anomaly detection can be defined as the task of identifying the samples that are drawn from any distribution other than P+. 1)異常検出 正規インスタンスの分布を p+ で表すと、異常検出は、p+ 以外の任意の分布から引き出されたサンプルを識別するタスクとして定義できる。 0.67
For example, if we represent P+ as the distribution of horses, a zebra is considered anomaly. 例えば、p+ を馬の分布として表現すると、ゼブラは異常と見なされる。 0.72
2) Outlier Detection: An outlier is a low-probability sample from P+. 2) 異常検出: 外れ値(outlier)はp+からの低確率サンプルである。 0.71
In the example of horse detection, a Falabella is an outlier in horse breeds. 馬検出の例では、ファラベラ(Falabella)は馬の品種の外れ値である。 0.63
3) Novelty Detection: A novelty is a sample that is drawn from a new region of a non-stationary distribution of normal samples P+. 3) 新規性検出: 新規性は, 正常試料P+の非定常分布の新しい領域から抽出されるサンプルである。 0.85
It is commonly a sample that the network does not encounter its counterpart during the training phase. トレーニングフェーズ中にネットワークが相手に遭遇しないのは、一般的にはサンプルである。 0.74
For instance, a new breed of horses is considered a novelty in the horse detection task. 例えば、新しい種類の馬は、馬の検出タスクにおいて目新しいものとみなされる。 0.77
the goal 4) Out-of-Distribution Detection: 目標は 4) 分配外検出 0.71
In out-of-distribution (OOD) detection, is to identify samples that do not belong to any of the training set classes. アウト・オブ・ディストリビューション(OOD)検出では、トレーニングセットクラスのどれにも属さないサンプルを識別する。
訳抜け防止モード: In out - of- distribution (OOD ) detection, is トレーニングセットクラスのどれにも属さないサンプルを識別する。
0.84
This problem, which is also referred to as ”open category detection” [59], is often formulated as a supervised learning problem where we have the labelled data from K classes during training. この問題は、"オープンカテゴリ検出" [59] とも呼ばれ、訓練中にKクラスからラベル付きデータを取得する教師付き学習問題として定式化されることが多い。 0.79
We treat all the K classes as normal samples, and we aim to identify if a sample is not coming from these classes during the inference phase. すべてのKクラスを通常のサンプルとして扱い、推論フェーズ中にサンプルがこれらのクラスから来ていないかどうかを識別する。 0.76
Recent studies have shown that training a supervised classifier on K classes and using Softmax probabilities for calculating the anomaly scores can yield stateof-the-art performance in the OOD detection task [60]. 近年の研究では,教師付き分類器をkクラス上でトレーニングし,ソフトマックス確率を用いて異常スコアを計算することで,ood検出タスク [60] における最先端のパフォーマンスが得られることが示された。
訳抜け防止モード: 最近の研究では kクラスにおける教師付き分類器の訓練とソフトマックス確率を用いた異常スコアの算出 ood 検出タスク [60 ] における -- アートパフォーマンスを生かすことができます。
0.70
An example of the OOD detection task is using a classifier trained on an animal dataset to detect samples from other datasets, e g flowers. OOD検出タスクの例として、動物データセットでトレーニングされた分類器を使用して、他のデータセット、例えば花のサンプルを検出する。
訳抜け防止モード: OOD検出タスクの例は 動物データセットでトレーニングされた分類器を使用して、他のデータセット、例えば花のサンプルを検出する。
0.78
Fig. 1 illustrates an example of normal sample versus 図1は、通常のサンプル対通常のサンプルの例を示します。 0.64
anomalies, outliers, novelty and out-of-distribution data. 異常、異常、新規性、分散性データ。 0.69
IV. SELF-SUPERVISED LEARNING FOR ANOMALY IV。 異常に対する自己教師付き学習 0.38
DETECTION In the remainder of this paper, we describe the general methodology and contribution of the self-supervised anomaly detection papers. 検出 本稿では,自己監督型異常検出論文の一般的な方法論と貢献について述べる。 0.57
Furthermore, we describe the application domains in which these methods are employed. さらに,これらの手法を応用したアプリケーションドメインについて述べる。 0.80
The key aspects of these papers are summarized in Table I. これらの論文の重要な側面は表1にまとめられている。 0.61
In this table, we identify the task that each paper tries to solve, the metric used for evaluation, and how the paper quantified the anomaly score from the representation. 本表では,各論文が解決しようとする課題,評価に用いる指標,および各論文が表現から異常スコアを定量化する方法について述べる。 0.65
Also, in Fig 2, we illustrated the methodology that each group of methods uses. また,図2では,各手法群が使用する方法論を概説した。 0.83
Moreover, in Fig 3, we illustrated the timeline of papers that concerns with the self-supervised AD algorithms and their application. さらに,fig 3では,自己監視型広告アルゴリズムとその応用に関する論文のタイムラインを解説した。 0.69
This figure indicates the rapid growth of this field and its widespread applicability in solving real-world problems. この数字は、この分野の急速な成長と、現実世界の問題を解決するための適用可能性を示している。 0.55
A. Algorithms Self-supervised algorithms can learn a proper data representation with the help of a defined pretext supervised task from an unlabelled dataset. A.アルゴリズム 自己教師付きアルゴリズムは、定義済みのプレテキスト教師付きタスクの助けを借りて、不正なデータセットから適切なデータ表現を学ぶことができる。 0.66
The pretext task guides the model to learn a generic representation of the data, which can be helpful for the downstream task such as classification and anomaly detection. プリテキストタスクは、データの汎用表現を学ぶためにモデルをガイドし、分類や異常検出といった下流タスクに役立ちます。 0.62
A wide range of proxy tasks and models are proposed in the literature of self-supervised learning. 自己監督学習の文献において,多種多様なプロキシタスクとモデルが提案されている。 0.68
They include, but are not limited to colorization [61], maximization of mutual information between low-level and high-level representations [62], and predicting geometric transformations [63]. これらは有色化 [61]、低レベル表現と高レベル表現の間の相互情報の最大化 [62]、幾何変換 [63] の予測を含むが、色化には制限されない。 0.68
These methods showed promising results in various tasks, such as speech representation learning [64], visual feature learning [65], and healthcare applications [66]. これらの手法は, 音声表現学習[64], 視覚特徴学習[65], 医療応用[66]など, 様々なタスクにおいて有望な結果を示した。 0.90
In recent years, contrastive learning methods [36] become one of the most important groups of self-supervised learning. 近年, コントラスト学習手法 [36] は, 自己指導型学習の最も重要なグループの一つとなっている。 0.78
In contrastive learning, the goal is to learn a proper data representation by pulling different views of the same sample close together and pushing them away from other samples. 対照的な学習では、同じサンプルの異なるビューを互いに近づけて、それらを他のサンプルから切り離すことで、適切なデータ表現を学ぶことが目標である。 0.73
This objective can be achieved by defining a proper loss such as contrastive loss [67] or triplet loss [68]. この目標は、コントラスト損失 [67] やトリプレット損失 [68] のような適切な損失を定義することで達成できる。 0.86
Several variants of contrastive learning models are suggested that can even achieve accuracy close to a fully-supervised model in specific tasks [36]. コントラスト学習モデルのいくつかの変種は、特定のタスクにおいて完全な教師付きモデルに近い精度を達成することができる[36]。 0.73
Despite their recent success and broad applicability, selfsupervised models suffer from several important shortcomings. 最近の成功と幅広い適用性にもかかわらず、自己監督モデルにはいくつかの重要な欠点がある。 0.50
One of their most significant problems is their computational inefficiency. 彼らの最も重要な問題の1つは計算の非効率である。 0.59
Compared to a fully-supervised model, they need more time and data to train and get an accuracy comparable to their supervised counterparts. 完全な教師付きモデルと比較すると、教師付きモデルと同等の精度でトレーニングと取得により多くの時間とデータが必要です。 0.57
Self-supervised models are also popular in anomaly detection in the past few years. 自己教師付きモデルもここ数年、異常検出で人気がある。 0.53
Previous studies showed that the representation that is learned from self-supervision can be useful for anomaly detection if the anomaly score and the pretext task are defined appropriately [42] [37]. 先行研究では,自己スーパービジョンから学習した表現は,異常スコアとプリテキストタスクが[42][37]で適切に定義されている場合,異常検出に有用であることが示された。 0.72
Inspired by earlier works [69], we categorize the self-supervised AD models based on their pretext task into two groups: 先行研究 [69] に触発されて, 先行課題に基づく自己教師型ADモデルを2つのグループに分類した。 0.69
• Self-predictive Methods: These models create the pretext task for each individual sample. • 自己予測的メソッド: これらのモデルは各サンプルのプリテキストタスクを生成する。 0.81
Commonly, they apply a transformation to the input sample and try to 一般的には、入力サンプルに変換を適用して、試行する。 0.66
英語(論文から抽出)日本語訳スコア
PREPRINT 5 Fig. 1. プレプリント 5 図1。 0.38
Normal samples are shown in green, anomalies in red, outliers in blue and novelties in purple. 正常なサンプルは緑、赤の異常、青の異常、紫の新規性を示す。 0.72
The dataset of animals is denoted by a light-blue dashed box while other out-of-distribution datasets are shown by a dashed dark-red box. 動物のデータセットは明るい青色の破片で示され、他の分布外のデータセットは暗い赤色の箱で示される。 0.76
either predict the applied transformation or reconstruct the original input. 応用変換を予測するか、元の入力を再構築するか。 0.60
These models are effective even if only “positive” samples, i.e. in-distribution (IND) samples, are available. これらのモデルは、"陽性"サンプル、すなわちin-distribution (IND)サンプルのみが利用可能であっても有効である。 0.74
They do not necessarily require samples from other distributions, also known as “negative” samples, during training. トレーニング中に他の分布(負のサンプルとしても知られる)からのサンプルを必ずしも必要としない。 0.67
• Contrastive Methods: Contrastive models define the proxy task on the relationship between pairs of samples. 対照的な方法: 対照的なモデルは、サンプルのペア間の関係に関するプロキシタスクを定義します。 0.62
They commonly generate positive views of a sample by applying different geometric transformations. 彼らは通常、異なる幾何学的変換を適用することでサンプルの正のビューを生成する。 0.55
Then, they aim to pull together the positive samples while pushing them away from the negative ones. そして、ポジティブなサンプルを、ネガティブなサンプルから引き離し、まとめることを目指しています。 0.56
In contrastive learning, samples of the current batch other than the anchor sample and its augmentations are considered as ”negative” while ”positive” samples are the ones that are coming from augmentations of the anchor. 対照的な学習では、アンカーのサンプル以外の現在のバッチのサンプルとその拡張は"負"と見なされ、"正"のサンプルはアンカーの増強から来ている。 0.68
Technically, contrastive models can also be considered as self-predictive models. 技術的には、対照的なモデルは自己予測モデルとも考えられる。 0.65
In essence, they also need to learn to predict the transformations in order to associate the augmentations of the same sample to each other. 本質的には、同じサンプルの増分を互いに関連付けるために、変換を予測することを学ぶ必要がある。 0.71
However, recent fast growth of the contrastive learning algorithms encourages us to treat them as a stand-alone category. しかし、近年のコントラスト学習アルゴリズムの急速な成長は、それらをスタンドアローンのカテゴリとして扱うことを奨励している。
訳抜け防止モード: しかし、最近のコントラスト学習アルゴリズムの急速な成長は促進する 我々はそれらをスタンドとして扱う。
0.66
Fig. 2 visually illustrates the representation learning process of these two different categories. 図2は、これらの2つの異なるカテゴリの表現学習過程を視覚的に表している。 0.65
As shown in this figure, unlike self-predictive algorithms, the contrastive learning methods use negative samples. この図に示すように、自己予測アルゴリズムとは異なり、対照学習法は負のサンプルを用いる。 0.73
This figure also depicts the pseudo-label generation process for different SSL methods. この図はまた、異なるSSLメソッドの擬似ラベル生成プロセスを描いている。 0.70
Self-predictive models apply the transformations on positive samples and try 自己予測モデルは正のサンプルに変換を適用して試行する 0.68
to either predict the applied transformation or reconstruct the original input. 応用変換を予測するか、元の入力を再構築する。 0.66
Contrastive methods, on the other hand, do not explicitly predict the transformations or reconstruct the input and instead, aim to distinguish between positive and negative samples. 一方、コントラスト法は、変換を明示的に予測したり、入力を再構築したりせず、正と負のサンプルを区別することを目的としている。
訳抜け防止モード: 一方コントラスト法は、変換を明示的に予測したり、入力を再構築したりしない むしろ 正と負のサンプルを区別することを目指しています
0.78
More details on the methods depicted in Fig 2 are presented in Sections V and VI. fig 2 で示される方法の詳細は、セクション v と vi で示される。 0.61
B. Assumptions and Evaluations Based on the nature of the dataset and the availability of the data labels, the anomaly detection task is formulated differently in the past studies. ロ.想定及び評価 データセットの性質とデータラベルの可用性に基づいて、過去の研究では異常検出タスクが異なる形で定式化されている。 0.69
The most common formulation is one-class anomaly detection (aka LPUE) [37] [70] [36], in which one class of the datasets is trained as the normal class, while the remaining classes are considered abnormal. 最も一般的な定式化は1つのクラス異常検出(lpue) [37] [70] [36]であり、データセットの1つのクラスは通常のクラスとして訓練され、残りのクラスは異常とみなされる。 0.78
An example of this task is taking a class of the CIFAR-10 such as Cat as normal, and the rest as anomalies. このタスクの例としては、猫を正常、残りを異常としてcifar-10のクラスを取る。 0.68
On the other hand, in multi-class anomaly detection tasks, multiple classes in the same datasets are considered normal during training, and one or multiple remaining classes are anomalous [42], [71]. 一方、マルチクラス異常検出タスクでは、トレーニング中に同一データセット内の複数のクラスが正常と見なされ、1つまたは複数の残りのクラスが異常[42],[71]である。 0.81
Self-supervised models are capable of learning a good feature representation from the input data. 自己教師型モデルは入力データから優れた特徴表現を学習することができる。 0.76
However, this representation is not readily useful for anomaly detection. しかし、この表現は異常検出にはあまり役に立たない。 0.65
Defining a suitable scoring function to quantify the degree of abnormality from this representation is an essential step for designing an anomaly detection framework. この表現から異常度を定量化する適切なスコアリング関数を定義することは、異常検出フレームワークを設計するための重要なステップである。 0.72
Previous studies use different scoring functions based on the downstream tasks to detect anomalies. 従来の研究では、下流のタスクに基づいて異なるスコアリング関数を使用して異常を検出する。 0.56
For example, for one-class anomaly detection, two widely used anomaly scores are normality score and reconstruction error. 例えば、1クラスの異常検出では、2つの広く使われている異常スコアは正規度スコアと再構成誤差である。 0.59
Normality score estimates the 正規度スコアは 0.55
英語(論文から抽出)日本語訳スコア
PREPRINT 6 Fig. 2. プレプリント 6 図2。 0.48
Several examples of pseudo-label generation processes associated with two main categories of SSL-AD. SSL-ADの2つの主要なカテゴリに関連する擬似ラベル生成プロセスのいくつかの例。 0.63
x is the pseudo-labeled input and fθ is the feature extractor. xは擬ラベル入力、fθは特徴抽出器である。 0.78
normality of new samples at the inference time after applying different transformations [37], [72]–[74]. 異なる変換 [37], [72]–[74] を適用した後の推論時間における新しいサンプルの正規性。 0.86
Examples of this type of score includes Dirichlet score [37] and rotation score [74]. この種のスコアの例としては、ディリクレスコア [37] とローテーションスコア [74] がある。 0.63
Reconstruction error, which is typically measured by the Euclidean distance between the original and the reconstructed images, is another category of scoring functions. 復元誤差は、典型的には原画像と再構成画像の間のユークリッド距離によって測定されるが、得点関数の別のカテゴリである。 0.68
The assumption behind using this score is that the reconstructed features of anomalies from the latent space have higher reconstruction errors than normal samples [70], [75]. このスコアの背後にある仮定は、潜在空間からの異常の再構成された特徴が通常のサンプル[70],[75]よりも高い再構成誤差を持つということである。 0.74
For multi-class anomaly detection, anomaly scores such as classwise density estimation (negative Mahalanobis distance) [76] and data likelihood criterion [77] were also used. 多クラス異常検出には, クラス毎の密度推定(負のマハラノビス距離) [76] やデータ可能性基準 [77] などの異常スコアを用いた。 0.82
Finally, for tackling the out-of-distribution detection problem, several other measures including probability-based measures (rotation score [74], Confusion Log Probability (CLP) [78], Weighting Softmax Probability [38], and Mahalanobis distance [76] are used in the self-supervised anomaly detection literature. 最後に、分散検出問題に取り組むために、自己教師あり異常検出文献において、確率ベースの尺度(回転スコア[74]、混乱ログ確率(clp)[78]、重み付けソフトマックス確率[38]、マハラノビス距離[76])を含むいくつかの他の尺度を用いる。 0.70
To evaluate the performance of an anomaly detector, several criteria are used. 異常検知器の性能を評価するために、いくつかの基準を用いる。 0.69
In practical applications, the cost of false alarms (type I error) and missed-detected anomalies (type II error) are usually different. 現実的な応用では、誤報(I型エラー)と誤検出異常(II型エラー)のコストは通常異なる。 0.73
Most anomaly detectors define the decision function as ほとんどの異常検出器は決定関数を 0.84
(cid:40) Output = (系統:40) 出力= 0.71
normal, abnormal, if Score(x) < ζ if Score(x) ≥ ζ 正常 異常 もし Score(x) < > if Score(x) ≥ ? 0.48
, over time or are not fully specified in various scenarios. , 時間とともに、あるいは様々なシナリオで完全には指定されない。 0.52
As an example, consider a financial fraud detector that receives anomaly alarms to investigate the potentially fraudulent activities. 例えば、潜在的な不正行為を調査するために異常警報を受ける金融詐欺検知器を考える。 0.72
A detector can only handle a limited number of alarms, and its job is to maximize the number of anomalies containing these alarms based on the precision metric. 検出器は限られた数のアラームのみを処理でき、その仕事は精度測定値に基づいてこれらのアラームを含む異常数を最大化することである。 0.81
Meanwhile, an anomaly alarm being wrongly reported can cause a credit card agency places a hold on the customer’s credit card. 一方、異常警報が誤って報告されると、クレジットカード代理店が顧客のクレジットカードにホールドを付ける可能性がある。 0.76
Thus, the goal is to maximize the number of true alarms given a constraint on the percentage of false alarms by using the recall metric. したがって、リコールメトリックを用いて偽アラームの割合に制約を与える真のアラームの数を最大化することが目的である。 0.73
Area Under the Receiver Operating Characteristic (ROC) Curve (AUROC or simply AUC) is known for its ability to evaluate the model’s performance under a broad range of the decision threshold ζ [80]. エリア・アンダー・ザ・レシーバ・オペレーティング・特性(ROC)曲線(AUROC、または単にAUC)は、決定しきい値(80)の範囲でモデルの性能を評価する能力で知られている。 0.74
The AUROC curve is an indicator for all sets of precision-recall pairs at all possible thresholds. AUROC曲線は、あらゆる可能なしきい値におけるすべての精度-リコール対の指標である。 0.73
This makes AUROC capable of interpreting the performance of models in various scenarios. これにより、AUROCは様々なシナリオでモデルのパフォーマンスを解釈できる。 0.79
As shown in Table I, most anomaly detection use the AUROC metric for evaluation. 表1に示すように、ほとんどの異常検出はAUROCメトリックを使って評価する。 0.72
The random baseline achieves an AUC of 0.5, regardless of the imbalance between normal and abnormal subsets, while an excellent model achieves an AUC close to 1, concluding the robustness of the model in distinguishing normal from abnormal classes. ランダムベースラインは、正常なサブセットと異常なサブセットの不均衡に関わらず0.5のAUCを達成する一方、優れたモデルでは、正常なクラスと異常なクラスを区別するモデルのロバスト性を含む1に近いAUCを達成する。 0.72
where Score(x) is the anomaly score for new sample x, and the decision threshold ζ is chosen to minimize the costs corresponding to the type I and II errors and to accommodate other constraints imposed by the environment [79]. スコア(x)が新しいサンプルxの異常スコアであり、判定しきい値は、タイプiおよびiiのエラーに対応するコストを最小化し、環境[79]によって課される他の制約に対応するために選択される。 0.79
However, it is common that the costs and constraints are not stable しかし、コストや制約は安定していないことが一般的です 0.79
C. Application Domains C.アプリケーションドメイン 0.85
Anomaly detection systems are widely deployed in various domains, such as medicine, infrastructure, social medical, financial security, etc. 異常検出システムは、医療、インフラ、社会医療、金融セキュリティなど、様々な領域に広く展開されている。 0.67
Despite the fact that selfsupervised anomaly detection is a relatively new field, it is now 自己監督型異常検出が比較的新しい分野であるにもかかわらず、現在ではその存在が続いている。
訳抜け防止モード: 自己監督型異常検出は比較的新しい分野であるにもかかわらず。 今だ
0.79
industry, 産業 産業 0.58
英語(論文から抽出)日本語訳スコア
PREPRINT 7 Fig. 3. プレプリント 7 図3。 0.48
Timeline of Self-Supervised Anomaly Detection Papers. 自己監督型異常検出用紙のタイムライン 0.61
Papers concerning the algorithms are distinguished from the application papers. アルゴリズムに関する論文は、応用論文と区別される。 0.68
The category of each algorithm is denoted by a distinctive color. 各アルゴリズムのカテゴリは、特有の色で示される。 0.77
widely employed in practical applications along with other popular methods such as Semi-supervised learning [50], and GAN and its variants [49]. 半教師付き学習[50]やGANとその変種[49]など,他の一般的な手法とともに,実践的な応用に広く採用されている。 0.71
Self-supervised learning algorithms are commonly used in medical research for detecting irregularities in patients’ records. 自己教師付き学習アルゴリズムは、患者の記録の異常を検出するための医学研究で一般的に用いられる。 0.66
They are successfully employed for detecting epileptic seizures [81], pulmonary diseases [82], Parkinson disease [83], and retinal diseases [84]. てんかん発作[81]、肺疾患[82]、パーキンソン病[83]、網膜疾患[84]の検出に成功している。 0.48
In addition, they are applied to different modalities of medical data, including Computed Tomography (CT) scans [85], 3D volumetric CT data [41], X-ray scans [86], optical coherence tomography (OCT) [87], Spectral Domain - optical coherence tomography images (SDOCT) [88], and MRI images [89], [90]. また、CTスキャン[85]、3DボリュームCTデータ[41]、X線スキャン[86]、OCT(光コヒーレンス断層撮影)[87]、スペクトルドメイン-光コヒーレンス断層撮影(SDOCT)[88]、MRI画像[89]、[90]など、さまざまな医療データに応用される。
訳抜け防止モード: また、医療データの異なるモダリティにも適用されている。 Computed Tomography (CT ) scans [85 ], 3D volumetric CT data [41 ] X線スキャン [86 ], 光コヒーレンス断層撮影 (OCT ) [87 ] 分光領域-光コヒーレンストモグラフィー画像(SDOCT) [88] MRI画像[89 ], [90 ]。
0.70
Self-supervised anomaly detection method are also employed in industrial applications for defect detection, and failure prediction [91], [92], as well as for monitoring infrastructural facilities [93], [94]. また, 欠陥検出や故障予測 [91] , [92] , インフラ施設のモニタリング [93] , [94] において, 自己教師あり異常検出法が用いられている。 0.75
The application of self-supervised AD is not limited to the aforementioned areas. 自己監督広告の適用は上記の領域に限定されない。 0.63
Several fields such as financial fraud detection [95], [96], text anomaly detection [97], and splice detection [98] are also benefited from the SSL algorithms. 金融不正検出 [95], [96], text anomaly detection [97], splice detection [98] などの分野もsslアルゴリズムの恩恵を受けている。
訳抜け防止モード: 金融不正検知[95],[96]など,いくつかの分野 テキスト異常検出[97 ]とスプライス検出[98 ]もSSLアルゴリズムの恩恵を受けている。
0.81
V. SELF-PREDICTIVE METHODS IN ANOMALY DETECTION Self-Predictive methods can learn data embedding by defining the supervised proxy task on a single sample. V. 自動検出自己予測手法は, 教師付きプロキシタスクを単一サンプル上で定義することにより, データの埋め込みを学習することができる。 0.63
This approach focuses on the innate relationship between a sample このアプローチはサンプル間の生来の関係に注目します 0.81
and its own contents or its augmented views. それ自身のコンテンツや 拡張されたビューです 0.77
An example of a self-predictive task is masking a portion of an image and trying to reconstruct it using a neural network [75]. 自己予測タスクの例として、画像の一部をマスキングして、ニューラルネットワーク[75]を用いて再構築しようとするものがある。 0.68
In most self-predictive approaches, the objective is to predict the label of the applied transformation, such as predicting the degree of rotation of an image. ほとんどの自己予測的アプローチでは、画像の回転度を予測するなど、適用された変換のラベルを予測することが目的である。 0.66
In this case, the anomaly score is commonly defined based on the Softmax probabilities of a supervised classifier. この場合、異常スコアは教師付き分類器のソフトマックス確率に基づいて一般的に定義される。 0.70
However, the objective of some methods is reconstructing the original input from its transformed version. しかし、いくつかの手法の目的は、元の入力を変換したバージョンから再構築することである。 0.56
Solving the Jigsaw puzzle and denoising autoencoders are examples of this approach. jigsawパズルを解き、自動エンコーダをデノイジングすることは、このアプローチの例です。 0.51
In this case, the reconstruction error of the model often used as the anomaly score. この場合、モデルの再構成誤差は、しばしば異常スコアとして使用される。 0.83
Geometric transformations were one of the earliest types of transformations that are used for visual representation learning. 幾何学的変換は視覚表現学習に使われた最も初期の変換の1つである。 0.73
Doersch et al (2015) [103] showed that predicting the relative position of image patches is a helpful pretext task for improving the representation for object detection. doersch et al (2015) [103] は、イメージパッチの相対的な位置の予測は、オブジェクト検出の表現を改善するのに役立つプリテキストタスクであることを示した。
訳抜け防止モード: Doersch et al (2015 ) [ 103 ] 画像パッチの相対的な位置を予測することは、オブジェクト検出の表現を改善するのに有用なプリテキストタスクである。
0.79
In a later work, Gidaris et al (2018) [63] used rotation prediction for learning a better representation. 後年、gidaris et al (2018) [63] はより優れた表現を学ぶために回転予測を用いた。 0.65
Geometric transformation models first create a self-labelled dataset by applying different geometric transformations to normal samples. 幾何学変換モデルはまず、通常のサンプルに異なる幾何学変換を適用することで、自己ラベル付きデータセットを作成する。 0.50
The applied transformation is served as the label of each sample. 応用変換は各サンプルのラベルとして提供される。 0.82
Let T = {T1, T2, . . . , TK} be the set of geometric transformations. T = {T1, T2, . , TK} を幾何学変換の集合とする。 0.79
The new labelled dataset S can be constructed from the original dataset D as below: S := {(Tj(x), j)|x ∈ D, Tj ∈ T }, 新しいラベル付きデータセットSは、以下の元のデータセットDから構成することができる: S := {(Tj(x), j)|x ∈ D, Tj ∈ T }。 0.91
(1) (1) 0.43
英語(論文から抽出)日本語訳スコア
PREPRINT 8 e r a プレプリント 8 e r a である。 0.47
t a h t s e r u t a e f t a h t s e r u t a e f 0.42
e h t e h t である。 0.58
g n i n r a e l G n i n r a e l 0.39
s e g a r u o c n e s e g a r u o c n e 0.42
. s e i t l e v o n . s e i t l e v o n である。 0.62
d n a d n a である。 0.53
s e g a m s e g a m である。 0.68
i l a m r o n 私は l a m r o n である。 0.62
g n i t c e t e d g n i t c e t e d 0.42
r o f r o f である。 0.56
l u f e s u l u f e s u 0.42
n e v i g e h t n e v i g e h t である。 0.50
l l a n o s e i l p p a L・L・A おお! s e i l p p a 0.44
M O E G m o e g である。 0.52
C O R t e l h c i r i C O R t e l h c i r i 0.43
D e r o c S D e r o c S 0.42
y t i l a m r o N y t i l a m r o N 0.42
D A s s a l Ce n O D A s a l Ce n O 0.38
. l a t e . A t e である。 0.37
] 7 3 [ n a l o G ] 7 3 [ n a l o g である。 0.52
8 1 0 2 s n o i t a m r o f s n a r T 8 1 0 2 s n o i t a m r o f s n a r T 0.43
c i r t e m o e G c i r t e m o e g である。 0.80
) M E O G ) m e o g である。 0.47
( y r a m m u S ( y r a m m u S 0.43
r o t a c i r o t a c i 0.42
d n I e r o c S d n i e r o c S 0.41
y l a m o n A y l a m o n A 0.43
k s a T d n a k s a T d n a である。 0.48
r o h t u A r o h t u a である。 0.69
r a e Y r a e y である。 0.58
d o h t e d o h t e である。 0.67
M I E L B A T M 私 E L B A T 0.53
S D O H T E M N O s d o h t e m n o である。 0.51
I T C E T E D Y L A M O N A D E S I I T C E T E D Y L A M O N A D E S I 0.42
V R E P U SF L E S V R E P U SF L E S 0.42
. L S S d e d i u gd o o h r o b h g i e n . L S S d e d i u gd o o h r o b h g i e n 0.42
e v i t a n i m e v i t a n i m 0.43
i r c s i d i r c s i d 0.42
e r o m a e r o m a である。 0.66
c i r t e m o e g c i r t e m o e g である。 0.85
l a c o l e h t l a c o l e h t である。 0.50
s e v r e s e r p s e v r e s e r p 0.43
E A , e m e h c s E A , e m e h c s 0.43
n o i t c u r t s n o c e r n o i t c u r t s n o c e r 0.42
a e v a h あ e v a h である。 0.57
o t s d a e l おお s d a e l 0.41
t a h t g n i n r a e l t a h t G n i n r a e l 0.41
E R N n o e r n n o である。 0.55
s e d i s e B s e d i s e B 0.43
d e s a b d l o f i n a m d e s a b d l o f i n a m 0.42
r o r r E r o r e である。 0.68
) R E E ( ) r e e である。 0.46
l a u q E l a u q e である。 0.62
s e t a R s e t a r である。 0.59
r o r r E r o r e である。 0.68
n o i t c u r t s n o c e R n o i t c u r t s n o c e R 0.42
D A s s a l Ce n O D A s a l Ce n O 0.38
y t n i a t r e c n u y t n i a t r e c n u 0.43
d n a d n a である。 0.53
s s e n t s u b o r s s e n t s u b o r 0.42
e h t e h t である。 0.58
e v o r p m e v o r p m である。 0.73
i o t d e d d a 私は おお d e d d a 0.45
. s l e d o m g n i n r a e l . s l e d o m g n i n r a e l 0.42
p e e d p e e d である。 0.64
s i f o 私は f o である。 0.53
s s o l s s o l である。 0.53
n o i t a t o r n o i t a t o r である。 0.75
y r a i l i x u a y r a i l i x u a 0.43
n A C O R U A n a です。 c o r u a である。 0.47
e r o c S n o i t a t o R e r o c S n o i t a t o r である。 0.57
e h t e h t である。 0.58
t c i d e r p t c i d e r p 0.42
o t s e i r t おお s e i r t 0.41
t I . a t a d tI . a t a d 0.36
l a r e n e g l a r e n e g 0.43
r o f r o f である。 0.56
e l b a t i u s e l b a t i u s 0.42
e r a e r a である。 0.56
h c i h w s n o i t a m r o f s n a r t h c i h w s n o i t a m r o f s n a r t 0.42
e n fi f a en fi f a である。 0.63
s e s u D A O G s e s u D A O G 0.42
. s e i l a m o n a . s e i l a m o n a 0.43
t c e t e d t c e t e d 0.43
o t r e fi i s s a l c おお r e fi i s s a l c 0.41
e h t e h t である。 0.58
f o t u p t u o f o である。 t u p t u o である。 0.58
e h t e h t である。 0.58
s e s u s e s u である。 0.63
d n a d n a である。 0.53
s n o i t a m r o f s n a r t s n o i t a m r o f s n a r t 0.43
d e i l p p a D e i l p p a 0.37
C U A C O R c u a c o r である。 0.54
- f o - f o である。 0.44
y t i l i b a b o r P y t i l i b a b o r P 0.42
r e fi i s s a l c r e fi i s s a l c 0.42
x a m x a m である。 0.58
e h t e h t である。 0.58
t f o S s e r u t p a c t f o S s e r u t p a c 0.42
P L C . d e s o p o r p P L C . d e s o p o r p 0.43
s i n o i t c e t e d D O O 私は n o i t c e t e d o である。 0.69
r o f r o f である。 0.56
h c a o r p p a H c a o r p p a 0.39
d e s a bg n i n i a r t d e s a bg n i n i a r t 0.42
. ) s ( t e s a t a d . ) s (t e s a t a d 0.42
r e i l t u o r e i l t u o である。 0.75
d n a d n a である。 0.53
r e i l n i r e i l n i 0.43
e h t e h t である。 0.58
f o y t i r a l i f o である。 y t i r a l i 0.44
m i s e h t m i s e h t である。 0.50
e v i t s a r t n o c e v i t s a r t n o c 0.43
e l p m e l p m である。 0.65
i s A C U A C O R I s A c u a c o r である。 0.47
- e r o c S - e r o c S 0.43
P L C . s e r u t a e f P L C . s e r u t a e f 0.42
r e i l t u o r e i l t u o である。 0.75
d n a d n a である。 0.53
r e i l n i r e i l n i 0.43
e l b a z i l a r e n e g e l b a z i l a r e n e g 0.42
e h t e h t である。 0.58
n r a e l o t n r a e l おお 0.41
d e y o l p m e d e y o l p m e 0.42
s i e m e h c s 私は e m e h c s 0.51
g n i n i a r t g n i n i a r t 0.42
p e t s2 A p e t s2 a 0.48
C O R U A c o r u a である。 0.45
y t i l i b a b o r P y t i l i b a b o r P 0.42
x a m x a m である。 0.58
t f o S g n i t h g i e t f o S G n i t h g i e 0.41
W s e s s a l c W s e s s a l c 0.42
d e t c e j e r d e t c e e e r である。 0.78
f o . f o である。 . 0.44
l a v o m e r l a v o m e r 0.42
t u c t r o h s t u c t r o h s 0.42
c i t a m o t u a c i t a m o t u a 0.42
n a s a n a です。 s a は 0.65
d e s u d e s u である。 0.63
s i g n i n i a r t 私は g n i n i a r t 0.51
l a i r a s r e v d a l a i r a s r e v d a 0.43
t s u b o r t s u b o r 0.42
e h t e h t である。 0.58
d n a d n a である。 0.53
s i s t u p n i 私は s t u p n i 0.51
l a m r o n l a m r o n である。 0.70
d e t c u r t s n o c e r d e t c u r t s n o c e r 0.42
e h t e h t である。 0.58
f o y t i l a u q f o である。 y t i l a u q 0.44
e h t e h t である。 0.58
, s t u p n i s t u p n i 0.33
d e l z z u p d e l z z u p である。 0.77
e h t e h t である。 0.58
s e v l o s s e v l o s 0.42
, t e N U , t e n u である。 0.49
- d e s a e r c n i - d e s a e r c n i 0.43
h t i w e l p m a s h・t・i w e l p m a s 0.50
e h t e h t である。 0.58
s t s a r t n o c s t s a r t n o c 0.42
t a h t e s a h p t a h t e s a h p 0.43
g n i n i a r t g n i n i a r t 0.42
e h t e h t である。 0.58
n i d e c u d o r t n i 私は d e c u d o r t n i 0.51
s i e r o c s 私は e r o c s 0.51
n o i t c e t e d w e n A n o i t c e t e d w e n a 0.41
. f l e s t i . F l e s t I 0.39
f o s n o i t a t n e m g u a f o である。 s n o i t a t n e m g u 0.42
d e t f i h sy l l a n o i t u b i r t s i d d e t f i h sy l l a n o i t u b i r t s i d 0.43
C O R U A c o r u a である。 0.45
C O R U A c o r u a である。 0.45
n o i t a z i l a m r o N n o i t a z i l a m r o n である。 0.84
r o r r E r o r e である。 0.68
n o d e s a b ( おお! d e s a b ( 0.45
e r o c S ) s r o r r E e r o c S ) s r o r r e 0.39
n o i t c u r t s n o c e R n o i t c u r t s n o c e R 0.42
y t i r a l i y t i r a l i 0.42
m i s e n i s o c M 私は... e n i s o c である。 0.47
g n i z i m i x a M g n i z i m i x a M 0.42
) n o i t a t n e s e r p e r t) n o i t a t n e s e r p e r 0.44
f o m r o n f o m r o n である。 0.70
e h t e h t である。 0.58
d n a d n a である。 0.53
D A s s a l Ce n O D A s a l Ce n O 0.38
D O O D A s s a l Ce n O D O O O D A s a l Ce n O 0.42
D O O D O O D O O O D O O O 0.46
D A s s a l Ce n O D A s a l Ce n O 0.38
D A s s a l Ce n O D A s a l Ce n O 0.38
. l a . l a . . A . A . 0.35
l a ] 0 7 [ 9 1 0 2 A ] 0 7 [ 9 1 0 2 0.36
t e u o r k o b a S t e である。 u o r k o b a S 0.44
d o o h r o b h g i e N d e s a bE A d o o h r o b h g i e N d e s a bE A 0.43
) E R N ( g n i d o c n E ) E R N ( g n i d o c n E 0.43
l a n o i t a l e R l a n o i t a l e R 0.43
] 4 7 [ 9 1 0 2 ] 4 7 [ 9 1 0 2 0.42
t e s k c y r d n e H t e である。 s k c y r d n e h である。 0.62
n o i t c i d e r P n o i t c i d e r P 0.42
n o i t a t o R n o i t a t o r である。 0.72
) E OL S S ( ) e ol s s である。 0.56
] 9 9 [ 0 2 0 2 ] 9 9 [ 0 2 0 2 0.43
t e n a m g r e B t e である。 n a m g r e B 0.44
y l a m o n A d e s a Bn o i t a c fi i s s a l C y l a m o n A d e s a Bn o i t a c fi i s a l C 0.41
) D A O G ) d a o g である。 0.47
( a t a D l a r e n e G ( a t a d l a r e n e G 0.41
r o f r o f である。 0.56
n o i t c e t e D n o i t c e t e D 0.42
. l a t e . A t e である。 0.37
s n e k n i W s n e k n i w である。 0.66
] 8 7 [ 0 2 0 2 ] 8 7 [ 0 2 0 2 0.43
. l a t e . A t e である。 0.37
i n e s h o M I n e s h o M 0.41
] 8 3 [ 0 2 0 2 ] 8 3 [ 0 2 0 2 0.43
. l a t e . A t e である。 0.37
] 5 7 [ . ] 5 7 [ . 0.43
l a t e A t e である。 0.35
] 2 4 [ i h e l a S ] 2 4 [ I h e l a S 0.42
0 2 0 2 k c a T 0 2 0 2 k c a t である。 0.50
0 2 0 2 g o L 0 2 0 2 g o L 0.43
n o i s u f n o C n o i s u f n o C 0.42
h t i w L C h・t・i w L C 0.50
) P L C ( y t i l i b a b o r P ) P L C ( y t i l i b a b o r P 0.43
g n i n i a r t g n i n i a r t 0.42
n o i t a c fi i s s a l c n o i t a c fi i s s a l c 0.43
d e s i v r e p u sl l u f d e s i v r e p u sl l u f 0.42
A n o i t c e t e d D O O d e s i v r e p u sf l e s A n o i t c e e e d d o d e s i v r e p u sf l e s 0.41
a d n a あ d n a である。 0.52
s t u p n i s t u p n i 0.42
d e l z z u p d e l z z u p である。 0.77
r o f r o f である。 0.56
t e N U t e n u である。 0.56
- : E Ae l z z u P - : e ae l z u p である。 0.51
g n i n i a r t g n i n i a r t 0.42
t s u b o r t s u b o r 0.42
l a i r a s r e v d a l a i r a s r e v d a 0.43
h t i w ) I S C h・t・i W ) I S C 0.45
( s e c n a t s n I ( s e c n a t s n I 0.43
d e t f i h S d e t f i h S 0.42
g n i t s a r t n o C g n i t s a r t n o C 0.43
L S S s e s u D S S L S S s e s u D S S 0.42
. a t a d . a t a d 0.43
n o i t u b i r t s i dn i n o i t u b i r t s i dn i 0.42
d e l e b a l n u d e l e b a l n u 0.42
y l n o n o y l n o おお! 0.45
d e s a b . d e s a b . 0.42
e c a p s e r u t a e f e c a p s e r u t a e f 0.42
e h t e h t である。 0.58
n i e c n a t s i d 私は e c n a t s i d 0.51
s i b o n a l a h a M s i b o n a l a h a M 0.42
a s i y b d e w o l l o f あ 私は y b d e w o l l o f である。 0.58
r o t c e t e d r o t c e t e d 0.42
r e i l t u o r e i l t u o である。 0.75
n a : D S S n a です。 : D S S 0.45
C O R U A c o r u a である。 0.45
e c n a t s i d e c n a t s i d 0.42
s i b o n a l a h a M s i b o n a l a h a M 0.42
D O O . D O O O . 0.44
l a t e A t e である。 0.35
g a w h e S g a w h e S 0.43
] 6 7 [ 1 2 0 2 ] 6 7 [ 1 2 0 2 0.42
d n a d n a である。 0.53
r o t c e t e d r o t c e t e d 0.42
e r u t a e f e r u t a e f 0.42
a : D S S n o i t c e t e d あ : D S S n o i t c e t e d 0.44
d e n o i t i d n o cr e t s u l c d e n o i t i d n o cr e t s u l c 0.43
g n i n r a e l G n i n r a e l 0.39
r o f r o f である。 0.56
s r e fi s r e fi の略。 0.44
i s s a l c i s s a l c 0.42
g n i d l i u b g n i d l i u b 0.43
g n i l p u o c e d g n i l p u o c e d 0.43
f o e c n a t r o p m f o である。 e c n a t r o p m 0.44
i e h t 私は e h t である。 0.56
s e z i s a h p m e D A s s a l ce n O s e z i s a h p m e d a s s a l ce n o 0.41
. s n o i t a t n e s e r p e r . s n o i t a t n e s e r p e r 0.42
e s e h t e s e h t である。 0.69
s e fi i t n e d i s e fi i t n e d i 0.42
d n a d n a である。 0.53
g n i n i a r t g n i n i a r t 0.42
g n i r u d G n i r u d 0.37
s n r e t t a p s n r e t t a p 0.42
r a l u g e r r i r a l u g e r i 0.38
l a c o l s e t a e r c l a c o l s e t a e r c 0.42
n o i t a t n e m g u a n o i t a t n e m g a 0.37
e t s a P t u C e t s a P t u C 0.43
. e m i t . エム i t です 0.49
t s e t e h t t s e t e h t である。 0.50
t a s t c e f e d t.a. s t c e f e d 0.35
l a e r l a e r である。 0.64
n e e s n u n e e s n u である。 0.71
n o y t i r a l u g e r r i おお! y t i r a l u g e r i 0.43
l a c o l . l a c o l . 0.42
e c n a m r o f r e p D O O d n a D N e c n a m r o f r e p D O O d n d N 0.40
I h t o b t s o o b 私 h t o b t s o o b 0.53
s s a l c : s t n e n o p m o c s s a l c : s t n e n o p m o c 0.43
2 g n i d d a 2 g n i d d a 0.42
y b s r e t s u l c y b s r e t s u l c 0.43
l a n o i t i d n o cs s a l c l a n o i t i d n o cs s a l c 0.42
e s n e d e p a h s e s n e d e p a h s 0.42
o t n o i t c a r t t a おお n o i t c a r t t a 0.41
e v i t i s o p e v i t i s o p 0.42
c i t s a h c o t s c i t s a h c o t s 0.42
d n a d n a である。 0.53
n a c L C M n a c L C M 0.43
k s a m l a n o i t i d n o c k s a m l a n o i t i d n o c 0.43
s p l e h s p l e h である。 0.68
d n a d n a である。 0.53
s e l p m a s s e l p m a s 0.42
l a m r o n l a m r o n である。 0.70
o t r e s o l c おお r e s o l c 0.41
s e l p m a s s e l p m a s 0.42
e v i t a g e n e v i t a g e n である。 0.81
. s t n i o p . s t n i o p である。 0.56
l a m r o n b a l a m r o n b a 0.42
d n a d n a である。 0.53
l a m r o n l a m r o n である。 0.70
s e t a r e n e g s e t a r e n e g 0.42
e t a r a p e s e t a r a p e s 0.42
n o i t a t n e m g u a n o i t a t n e m g a 0.37
e v i t a g e N e v i t a g e n である。 0.79
l a c o L . l a c o L . 0.42
s e g a m s e g a m である。 0.68
i . s e i l a m o n a 私は . s e i l a m o n a 0.46
e h t e h t である。 0.58
l a m r o n l a m r o n である。 0.70
t c e t e d t c e t e d 0.43
y l n o s p l e h y l n o s p l e h である。 0.55
g n i s u s n o i t a t n e s e r p e r g n i s u s n o i t a t n e s e r p e r 0.42
e s n e d d n a e s n e d d n a である。 0.48
l a b o l g l a b o l g 0.43
c i m a n y d c i m a n y d 0.43
s n r a e l s n r a e l 0.43
L S S d n a L S S d n a である。 0.48
s e g a m s e g a m である。 0.68
i l a m r o n b a 私は l a m r o n b a 0.48
o d u e s p o d u e s p である。 0.73
s e t a r e n e g s e t a r e n e g 0.42
n e h t n o i t a t n e m g u a n e h t n o i t a t n e m g a 0.40
l e v e le r u t a e f l e v e le r u t a e f である。 0.88
g n i y o l p m e G n i y o l p m e 0.40
. n o i t a b r u t r e p . n o i t a b r u t r e p 0.42
l a i r a s r e v d a l a i r a s r e v d a 0.43
d n a d n a である。 0.53
g n i n r a e l G n i n r a e l 0.39
d e s i v r e p u sf l e s d e s i v r e p u sf l e s 0.43
y b e r o c s y b e r o c s 0.43
y l a m o n a y l a m o n a 0.42
e v i t a n i m e v i t a n i m 0.43
i r c s i d i r c s i d 0.42
a s n g i s e d P 2 A L S あ s n g i s e d P 2 A L S 0.46
C U A C U A C U A C U A 0.85
C U A C U A C U A C U A 0.85
C O R U A c o r u a である。 0.45
C O R U A c o r u a である。 0.45
n o i t a m n o i t a m 0.42
i t s e y t i s n e d i t s e y t i s n e d 0.43
e s i ws s a l C e s i ws s a l c 0.41
) e c n a t s i d ) e c n a t s i d 0.43
s i b o n a l a h a M s i b o n a l a h a M 0.42
e v i t a g e n ( e v i t a g e n である。 0.84
r o r r e r o r e である。 0.77
n o i t c u r t s n o c e R n o i t c u r t s n o c e R 0.42
d n a d n a である。 0.53
r o r r E r o r e である。 0.68
n o i s s e r g e R n o i s s e r g e r 0.40
e r o c S y t n i a t r e c n U e r o c S y t n i a t r e c n U 0.42
g n i r o c S g n i r o c S 0.42
d e s a B y t n i a t r e c n U d e s a B y t n i a t r e c n U 0.43
n o i t a b r u t r e P n o i t a b r u t r e P 0.42
l a i r a s r e v d A h t i l a i r a s r e v d A h t i 0.43
w y b d o o h i l e k i l W y b d o o h i l e k i l 0.40
a t a d e h t a t a d e h t である。 0.50
s n r a e l s n r a e l 0.43
d n a d n a である。 0.53
, g n i t t e s , g n i t t e s 0.43
L S S e h t L S S e h t である。 0.50
n i s n o i t a m r o f s n a r t 私は s n o i t a m r o f s n a r t 0.51
a t a d s y o l p m e a t a d s y o l p m e 0.43
. y g e t a r t . y g e t a r t 0.42
S l a n i g r a S l a n i g r a 0.43
M e h t M e h t である。 0.50
h t i w g n i n r a e L h・t・i w g n i n r a e L 0.50
e v i t c A d e s a b e v i t c a d e s a b 0.42
s w o l s w o l である。 0.52
F e v i s s e r g e r o t u A F e v i s s e r g e r o t u a 0.42
L AF A N e r o c S L AF A N e r o c S 0.43
1 F s d o o h i l e k i L 1F s d o o h i l e k i L 0.41
s e r u t p a c D D A D s e r u t p a c D D A D 0.42
. l e d o m g n i n i a r t . l e d o m g n i n i a r t 0.42
. y g e t a r t s . y g e t a r t s 0.43
g n i t o v gn i t o v である。 0.68
y t i r o j a m a うん、R o j a m a 0.47
g n i s u l a i r a s r e v d a g n i s u l a i r a s r e v d a 0.43
n o i t a u l a v e n o i t a u l a v e 0.42
p e e d p e e d である。 0.64
a d n a あ d n a である。 0.52
r e fi i s s a l c r・e・フィ i s s a l c 0.43
y r a i l i x u a y r a i l i x u a 0.43
n a s e d u l c n i n a です。 s e d u l c n i 0.47
D A A D d a d (複数形 d a ds) 0.35
y l a m o n a y l a m o n a 0.42
n a s e k a m d n a n a です。 s e k a m d n a 0.47
s n o i t u b i r t s i d s n o i t u b i r t s i d 0.43
a t a d t n e r e f f i d a t a d t n e r e f f i d 0.43
, C U A 1 F , C U A 1 F 0.43
, C C A , C (複数形 Cs) 0.46
, C O R s r a l a c s , C O R s r a l a c s 0.43
g n i t o v gn i t o v である。 0.68
c i t s i l i b a b o r P c i t s i l i b a b o r P 0.42
y t i r o j a m h t i y t i r o j a m h t i 0.42
w r o t a m W r o t a m である。 0.50
i t s e y t i s n e d i t s e y t i s n e d 0.43
) E D G ( n a i s s u a G ) E D G ( n a i s s u a g 0.42
D A s s a l Ce n O D A s a l Ce n O 0.38
. l a ] 3 7 [ . A ] 3 7 [ 0.36
t e i t e である。 私は 0.50
L 1 2 0 2 うーん 1 2 0 2 0.44
m o r f ( m o r f である。 0.73
e r o c s y t i l a m r o N e r o c s y t i l a m r o N 0.42
) E D K , M V S C O ) E D K , m v s c o である。 0.45
D A s s a l Ce n O D A s a l Ce n O 0.38
. l a t e . A t e である。 0.37
] 2 7 [ n h o S ] 2 7 [ n h o S 0.42
1 2 0 2 ) : 1 2 0 2 ) : 0.43
L S S y b D A s s a l ce n O L S S y b D A s a l ce n O 0.41
C O R D ( L C C O R D ( L C 0.42
d n a d n a である。 0.53
n o i t c i d e r p n o i t c i d e r p 0.42
n o i t a t o r n o i t a t o r である。 0.75
D A s s a l C D A s a l C 0.37
i t l u M y t l e v o N s s a l Ce n O I t l u M y t l e v o N s a l Ce n O 0.40
n o i t c e t e D n o i t c e t e D 0.42
D A s s a l Ce n O D A s a l Ce n O 0.38
D A s s a l Ce n O D A s a l Ce n O 0.38
D A s s a l Ce n O D A s a l Ce n O 0.38
D A s s a l C D A s a l C 0.37
i t l u M D A s s a l C I t l u M D A s a l C 0.39
i t l u M . I t l u M . 0.42
l a t e A t e である。 0.35
] 9 3 [ o h C ] 9 3 [ オ・h・c 0.47
1 2 0 2 . 1 2 0 2 . 0.42
l a t e A t e である。 0.35
] 0 0 1 [ . ] 0 0 1 [ . 0.43
l a t e A t e である。 0.35
] 1 0 1 [ n e h C ] 1 0 1 [ n e h C 0.43
1 2 0 2 a o Y 1 2 0 2 a o Y 0.42
1 2 0 2 . 1 2 0 2 . 0.42
l a t e A t e である。 0.35
] 2 0 1 [ . ] 2 0 1 [ . 0.42
l a t e A t e である。 0.35
] 7 7 [ . ] 7 7 [ . 0.42
l a t e A t e である。 0.35
] 1 7 [ g n a W ] 1 7 [ g n a w である。 0.48
1 2 0 2 g n a h Z 1 2 0 2 g n a h Z 0.42
1 2 0 2 g n a h Z 1 2 0 2 g n a h Z 0.42
2 2 0 2 n o i t a t n e m g u a 2 2 0 2 n o i t a t n e m g a 0.40
e t s a P t u C e t s a P t u C 0.43
g n i n r a e L g n i n r a e L 0.42
e v i t s a r t n o C e v i t s a r t n o C 0.42
) L C M ( d e k s a ) L C M ( d e k s a 0.42
M a t a D e v i t a g e N h t i M a t a D e v i t a g e N h t i 0.42
w L C ) A D N w L C ) dn (複数形 dns) 0.40
( n o i t a t n e m g u A ( n o i t a t n e m g u A 0.42
c i m a n y D h t i c i m a n y D h t i 0.42
w L S S n o i t a t n e m g u A w L S S n o i t a t n e m g u A 0.42
l a c o L s n o i t a m r o f s n a r t l a c o L s n o i t a m r o f s n a r t 0.43
n o i t a b r u t r e P n o i t a b r u t r e P 0.42
l a i r a s r e v d A d n a l a i r a s r e v d a d n a 0.42
c i r t e m o e G c i r t e m o e g である。 0.80
: P 2 A L S : P2 A L S 0.41
e v i s s e r g e r o t u A e v i s s e r g e r o t u a 0.42
l a r u e N l a r u e n である。 0.70
: L AF A N : L AF A N 0.43
g n i n r a e L g n i n r a e L 0.42
e v i t c A h t i e v i t c A h t i 0.42
w s w o l F w s w o l f である。 0.68
l a i r a s r e v d a l a i r a s r e v d a 0.43
n a h t i n a です。 h・t・i 0.54
w L S S : D A A D w L S S : d a d (複数形 d a ds) 0.40
g n i n i a r t g n i n i a r t 0.42
. 1 2 3 4 5 . 1 2 3 4 5 0.43
6 7 8 9 0 1 6 7 8 9 0 1 0.43
1 1 2 1 3 1 1 1 2 1 3 1 0.43
4 1 5 1 6 1 4 1 5 1 6 1 0.43
7 1 7 1 0.43
英語(論文から抽出)日本語訳スコア
PREPRINT 9 nS := プレプリント 9 nS := 0.43
log p(y(Tk(x))|Tk) log p(y(Tk(x))|Tk) 0.46
(2) Then, they approximated p(y(Tk(x))|Tk) by a Dirichlet distribution: (2) そして、彼らはディリクレ分布によって p(y(Tk(x))|Tk) を近似した。 0.55
K(cid:88) k=1 K(第88回) k=1 である。 0.47
K(cid:88) where the original data point is shown by x. K(第88回) 元のデータポイントが x で示されます 0.68
A multi-class network is trained over the dataset S to detect the transformation applied to the sample. データセットS上でマルチクラスネットワークをトレーニングし、サンプルに適用された変換を検出する。 0.74
During the inference phase, the trained models are applied to the transformed versions of the samples, and the distribution of the Softmax output is used for anomaly detection [37]. 推定段階では、トレーニングされたモデルをサンプルの変換バージョンに適用し、ソフトマックス出力の分布を異常検出に利用する[37]。
訳抜け防止モード: 推論フェーズ中。 訓練されたモデルは サンプルの変換されたバージョンに適用されます そして、Softmax出力の分布は異常検出に使用される[37]。
0.80
Unlike the Autoencoders and GAN-based methods, the geometric transformation models are discriminative. オートエンコーダやGANベースの手法とは異なり、幾何変換モデルは識別可能である。 0.51
The intuition behind these models is that the model learns to extract important features of the input by learning to identify the applied geometric transformations. これらのモデルの背後にある直感は、モデルが入力の重要な特徴を抽出して、適用された幾何学的変換を識別することを学ぶことである。
訳抜け防止モード: これらのモデルの背後にある直感は モデルは、応用幾何学変換を識別するために学習することで入力の重要な特徴を抽出することを学ぶ。
0.70
These features can also be helpful for anomaly detection. これらの機能は異常検出にも有効である。 0.70
The paper by Golan et al (2018) [37] was the first work that used geometric transformation learning for anomaly detection. golan et al (2018) [37] による論文は、異常検出に幾何学的変換学習を用いた最初の研究である。 0.69
They named their method as GEOM and showed that it can significantly outperform the state-of-the-art in anomaly detection. 彼らはこの手法をGEOMと命名し、異常検出における最先端技術を大幅に上回っていることを示した。 0.48
They showed that their model can beat the topperforming baseline in CIFAR-10 and CatsVSDogs datasets by 32% and 67%, respectively. 彼らは、彼らのモデルはcifar-10とcatsvsdogsデータセットのtopperformingベースラインをそれぞれ32%と67%上回ることを示した。 0.68
To calculate the anomaly score of a sample from the Softmax probabilities, Golan et al (2018) [37] combined the log-likelihood of the conditional probability of each of the applied transformations: ソフトマックス確率からサンプルの異常スコアを計算するために、golan et al (2018) [37] は各適用された変換の条件付き確率の対数類似度を合成する。 0.76
nS = (˜αk − 1). nS = (αk − 1)。 0.42
log y(Tk(x)). log y(Tk(x))。 0.39
(3) k=1 (3) k=1 である。 0.37
that An important issue of GEOM is あれ 大事なのは GEOMの課題 0.53
the classifier p(y(Tk(x))|Tk) is only valid for samples the network encountered during the training. 分類器 p(y(Tk(x))|Tk) はトレーニング中にネットワークが遭遇したサンプルに対してのみ有効である。 0.81
For other samples which also includes anomalies, p(y(Tk(x))|Tk) can have a very high variance. 異常を含む他のサンプルに対して、p(y(Tk(x))|Tk) は非常に高い分散を持つ。 0.69
To address this problem, Hendrycks et al (2018) [104] proposed to use some anomalous samples during the training to ensure that p(y(Tk(x))|Tk) = 1 M for anomalies. この問題に対処するため、Hendrycks et al (2018) [104] は、トレーニング中にいくつかの異常サンプルを使用して、p(y(Tk(x))|Tk) = 1 M の異常を確実にすることを提案した。
訳抜け防止モード: この問題に対処するためです hendrycks et al (2018 ) [104 ] トレーニング中に異常なサンプルを使用する提案 異常に対して p(y(tk(x))|tk ) = 1 m を確実にする。
0.82
This method, which is also known as Outlier Exposure (OE), formulates the problem as a supervised task which might not be practical for some real-world applications as they do not have access to anomalies. この方法は、OE(Outlier Exposure)としても知られており、異常にアクセスできないために現実のアプリケーションでは実用的ではない教師付きタスクとして問題を定式化している。 0.63
Even though self-predictive models showed promising results, their performance is still significantly poorer than fullysupervised models in out-of-distribution detection. 自己予測モデルには有望な結果が見られたが、その性能は分散検出において完全に教師付きモデルよりもかなり劣っている。 0.54
However, some recent studies [74] hinted that using SSL models in conjunction with supervised methods can improve the robustness of the model in different ways. しかし、近年の研究[74]では、SSLモデルと教師付きメソッドを併用することで、モデルの堅牢性が異なる方法で向上できると示唆している。 0.71
Therefore, even in cases where we have access to anomaly data and labels, using selfsupervised proxy tasks can enhance the performance of the anomaly detector. したがって、異常データやラベルにアクセスできる場合であっても、自己教師付きプロキシタスクを使用することで異常検出の性能が向上する。 0.70
A significant downside of geometric models is that they only use transformations that are well-suited for image datasets and cannot be generalized to other data types, e g tabular data. 幾何学モデルの重大な欠点は、画像データセットに適した変換のみを使用しており、表データのような他のデータ型に一般化できないことである。 0.76
To overcome this issue, Bergman and Hoshen proposed a method called GOAD [99]. この問題を解決するため、Berbergman氏とHoshen氏はGOAD[99]と呼ばれる方法を提案した。 0.58
In GOAD, the data is randomly transformed by several affine transformations GOADでは、データはいくつかのアフィン変換によってランダムに変換される 0.54
(cid:88) T = {T1, T2, . . . , TK}. (cid:88) t = {t1, t2, . . , tk} である。 0.61
Unlike the geometric transformations, affine transforms are not limited to images and can be applied to any data type. 幾何学的変換とは異なり、アフィン変換は画像に限定されず、任意のデータタイプに適用できる。 0.71
Also, we can show that the geometric transformations are special cases of the affine transforms, and the GEOM algorithm is a special case of GOAD. また、幾何学的変換はアフィン変換の特別な場合であり、ジオムアルゴリズムはゴードの特別な場合であることを示すことができる。 0.77
In GOAD, the network learns to map each of the transformations into one hypersphere by minimizing the below triplet loss: max ((cid:107)f (Tm(xi)) − cm(cid:107)2 + s L = −minm(cid:48)(cid:54) =m(cid:107)f (Tm(xi)) − cm(cid:48)(cid:107)2 , 0), GOADにおいて、ネットワークは以下の三重項損失を最小化することにより、各変換を1つの超球面にマッピングすることを学ぶ: max ((cid:107)f (Tm(xi)) − cm(cid:107)2 + s L = −minm(cid:48)(cid:54) =m(cid:107)f (Tm(xi)) − cm(cid:48)(cid:107)2 , 0)。 0.78
(4) where f (.) is the network, s is a regularizing term for the distance between hyperspheres, and cm is the hypersphere center corresponding to the m−th transformation. (4) ここで f (.) はネットワークであり、s は超球面間の距離の正規化項であり、cm は m-次変換に対応する超球中心である。 0.77
The above objective encourages the network to learn the hyperspheres with low intra-transformation and high inter-transformation variance. 上記の目的により、ネットワークはトランスフォーメーションが低く、トランスフォーメーション間分散が高い超球を学習することを奨励する。
訳抜け防止モード: 上記の目的が奨励する 低内部変換と高い相互変換分散でハイパースフィアを学習するネットワーク。
0.71
This is to provide a feature space, i.e. the last layer of f (.), in which the different transformations are separated. これは特徴空間、すなわち異なる変換が分離される f (.) の最後の層を提供することである。 0.75
During the inference phase, the test samples are transformed by all transformations and the likelihood of predicting the correct transform is used as the anomaly score. 推論フェーズの間、テストサンプルはすべての変換によって変換され、正しい変換を予測する可能性は異常スコアとして使用される。 0.72
i Although classification-based methods showed significant improvement in semantic anomaly detection on datasets such as CIFAR-10, their performance is poor on real-world datasets such as MVTecAD [75]. 私は 分類に基づく手法はCIFAR-10のようなデータセットのセマンティックな異常検出を著しく改善するが,MVTecAD[75]のような実世界のデータセットでは性能が劣っている。 0.62
This is because these models can learn high-level features of data by learning the patterns which are present both in the original data and its augmented versions, e g rotated instances. これは、これらのモデルが元のデータと拡張バージョンの両方に存在するパターン、例えばローテーションインスタンスを学習することで、データの高レベルな特徴を学習できるためである。 0.77
However, these algorithms might not be well-suited for sensory-level anomaly detection tasks, e g detecting cracks in an object. しかし、これらのアルゴリズムは物体のひび割れを検出するなど、感覚レベルの異常検出タスクには適していないかもしれない。 0.62
This is because some types of low-level anomalies, such as texture anomalies, are often invariant to the transformations. これは、テクスチャ異常のようないくつかの低レベルの異常が、しばしば変換に不変であるからである。 0.59
To alleviate this issue, several other proxy tasks, that are more suitable for low-level anomaly detection, are proposed. この問題を軽減するために,低レベルの異常検出に適したプロキシタスクがいくつか提案されている。 0.69
For instance, Salehi et al (2020) [75] used the idea of solving the jigsaw puzzle for learning an efficient representation that can be used for pixellevel anomaly detection. 例えば、salehi et al (2020) [75] はジグソーパズルを解くというアイデアを使って、ピクセルレベルの異常検出に使用できる効率的な表現を学習した。 0.74
Their proposed method, which they named as Puzzle-AE, trains a U-Net autoencoder to reconstruct the puzzled input. 提案手法はPuzzle-AEと名付けられ、U-Netオートエンコーダを訓練してパズル入力を再構築する。 0.65
The reconstruction objective ensures that the model is sensitive to the pixel-level anomalies, while the pretext task of solving the puzzle enables the network to capture high-level semantic information, as shown in Fig 2. 再構成目的は、モデルが画素レベルの異常に敏感であることを保証する一方、パズルを解くプリテキストタスクにより、図2に示すように、ネットワークは高レベルの意味情報をキャプチャすることができる。 0.69
They further boosted the performance of their model by incorporating adversarial training. 敵の訓練を取り入れることで、モデルの性能をさらに向上させた。 0.63
More recently, Li et al (2021) [73] developed a selfsupervised method called CutPaste which significantly improves state-of-the-art in defect detection. 最近では、Li et al (2021) [73] が、欠陥検出の最先端性を著しく向上させる、CutPasteと呼ばれる自己教師型手法を開発した。
訳抜け防止モード: 最近ではLi et al (2021 ) [ 73 ] が CutPaste と呼ばれる自己教師型手法を開発した。 欠陥検出の - 状態 - の - 技術 が大幅に改善される。
0.56
CutPaste transformation randomly crops a local patch of the image and pastes it back to a different image location. CutPaste変換は、画像のローカルパッチをランダムにトリミングし、別のイメージロケーションにペーストする。 0.73
The new augmented dataset is more representative of real anomalies. 新しい拡張データセットは、実際の異常をより代表している。 0.60
Thus, the model can be easily trained to identify and localize the local irregularity (shown by the white regions in the black background in Fig 2). したがって、このモデルは局所的不規則性(図2の黒背景の白い領域で示される)を識別し、ローカライズするために容易に訓練することができる。 0.69
To detect the augmented samples from the un-transformed ones, the objective of the network is defined as follows: LCP = Ex∈X{CE(g(x), 0) + CE(g(CP(x)), 1)}, 未変換のものから強化されたサンプルを検出するために、ネットワークの目的は次のように定義される: LCP = Ex∂X{CE(g(x), 0) + CE(g(CP(x)), 1)}。 0.81
(5) where CP (.) is the CutPaste augmentation, X is the set of normal data, CE(., .) is a cross-entropy loss, and g is a binary (5) CP(.) が CutPaste 拡張、X が正規データの集合、CE(., .) がクロスエントロピー損失、g がバイナリである場合
訳抜け防止モード: (5)どこで cp ( . ) はカットパステの増強である。 x は正規データ集合 ce ( ....) である。 ) エントロピー損失(entropy loss)、そして g は二進数である
0.71
英語(論文から抽出)日本語訳スコア
PREPRINT 10 classifier that can be parameterized by deep networks. プレプリント 10 ディープネットワークによってパラメータ化できる分類器。 0.52
In order to calculate the anomaly score from the representation, an algorithm like KDE or GDE can be used. 表現から異常スコアを計算するために、KDEやGDEのようなアルゴリズムを用いることができる。 0.76
CutPaste can also learn a patch representation and compute the anomaly score of an image patch by cropping a patch before applying CutPaste augmentation. cutpasteはパッチ表現を学習し、cutpaste拡張を適用する前にパッチを切ることで、イメージパッチの異常スコアを計算することもできる。 0.59
This facilitates localizing the defective area. これにより、欠陥領域のローカライズが容易になる。 0.48
In this case, the objective loss function is modified as: この場合、目的損失関数は次のように変更される。 0.72
Ex∈X{CE(g(c(x)), 0) + CE(g(CP(c(x))), 1)}, ex guix{ce(g(c(x)), 0) + ce(g(cp(c(x)), 1)} である。 0.63
(6) where c(x) crops a patch at random location x. (6) ここで c(x) はランダムな位置 x でパッチを収穫する。 0.56
In another similar work, Schl¨uter et al (2021) [105], introduced a new self-supervised task, called Natural Synthetic Anomalies (NSA) to detect and localize anomalies using only normal training data. 別の同様の研究で、Schl suter et al (2021) [105] は、通常のトレーニングデータのみを使用して異常を検出し、ローカライズするために、Natural Synthetic Anomalies (NSA) と呼ばれる新しい自己管理タスクを導入した。 0.63
Their proposed approach creates synthetic anomalies by seamlessly cloning a patch with various sizes from a source image into a destination image. 提案手法は、ソース画像から目的地画像への様々なサイズのパッチをシームレスにクローンすることで、合成異常を生成する。
訳抜け防止モード: 提案手法は合成異常を生成する。 ソースイメージから宛先イメージへのさまざまなサイズでパッチをシームレスにクローンする。
0.78
In particular, NSA selects a random rectangular patch in the source image, randomly resizes the patch, blends the patch into the destination location from a different image, and creates a pixellevel mask. 特に、NSAはソースイメージ内のランダムな矩形パッチを選択し、パッチをランダムにリサイズし、別のイメージから宛先位置にパッチをブレンドし、ピクセルレベルのマスクを作成する。 0.72
The new samples that NSA generates are different in size, shape, texture, location, color, etc. NSAが生成する新しいサンプルは、サイズ、形状、テクスチャ、位置、色などによって異なる。 0.82
In other words, NSA dynamically produces a wide range of anomalies, which are more realistic approximation of natural anomalies than the samples that CutPaste creates by pasting patches at different locations. 言い換えれば、nsaは広い範囲の異常を動的に生成するが、これはカットペーストが異なる場所にパッチを貼ることによって生成するサンプルよりも自然異常のより現実的な近似である。 0.61
An example of NSA is shown in Fig 2, where a random patch from a source cat image is seamlessly cloned onto another cat image. NSAの例は図2で示され、ソースの猫画像からのランダムなパッチが他の猫画像にシームレスにコピーされる。 0.75
The NSA method outperforms the state-of-the-art algorithms on several real-world datasets such as MVTecAD. NSAの手法はMVTecADのような実世界のデータセットで最先端のアルゴリズムよりも優れている。 0.55
VI. CONTRASTIVE METHODS VI。 コントラスト法 0.61
The primary objective of contrastive self-supervised learning is to learn a feature space or a representation in which the positive samples are closer together and are further away from the negative points. 対照的な自己教師付き学習の主な目的は、正のサンプルがより近く、負の点からさらに離れている特徴空間や表現を学ぶことである。 0.75
Empirical evidence shows that contrastive learning models such as SimCLR [36] and MoCo [35] are particularly efficient in computer vision tasks. SimCLR [36] や MoCo [35] のような対照的な学習モデルはコンピュータビジョンタスクにおいて特に効率的であることが実証された。 0.76
SimCLR, one of most popular recent contrastive learning algorithms, learns representations by maximizing the agreement between different augmented versions of the same image while repelling them from other samples in the batch. 最近の一般的なコントラスト学習アルゴリズムのひとつであるSimCLRは、同じイメージの異なる拡張バージョン間の合意を最大化し、バッチ内の他のサンプルから取り除き、表現を学ぶ。 0.76
Each image xi from randomly sampled batch B = ({xi, yi})N i=1 is augmented twice, producing an independent pair of views {ˆx2i−1, ˆx2i}, and augmented batch ˆB = {(ˆxi, ˆyi)}2N i=1, where the labels of augmented data {ˆy2i−1, ˆy2i} are equal to the original label yi. ランダムにサンプリングされたバッチB = ({xi, yi})Ni=1から各画像xiを2回増設し、独立したビューの対である{...x2i−1, ...x2i}と、拡張されたバッチである{(...xi, ...yi)}2Ni=1を生成する。 0.73
By performing independent transformation T and T(cid:48) drawn from a pre-defined augmentation function pool T , the augmented pair of views {ˆx2i−1 = T(xi), ˆx2i = T(cid:48)(xi)} are generated. 予め定義された拡張関数プール t から、独立変換 t と t(cid:48) を実行することにより、拡張されたビューのペア {\x2i−1 = t(xi) が生成される。 0.75
Next, {ˆx2i−1, ˆx2i} are passed sequentially through an encoder and a projection head to yield latent vectors {z2i−1, z2i}. 次に、エンコーダと射影ヘッドを順次通過し、潜在ベクトル {z2i−1, z2i} を得る。 0.64
SimCLR learns the representation by minimizing the following loss for a positive pair of examples (m, n): SimCLR は、正の例 (m, n): の次の損失を最小限にして表現を学習する。 0.79
l(m, n) = − log l(m, n) = − log 0.42
(cid:80)2N (cid:80)2n 0.35
exp(sim(zm, zn)/τ ) exp(sim(zm, zn)/τ ) 0.46
i=1 1{i(cid:54)=m} exp(sim(zm, zi)/τ ) i=1 1{i(cid:54)=m} exp(sim(zm, zi)/τ ) 0.45
(7) where sim(zm, zn) represents the cosine similarity between the pair of latent vectors (zm, zn), 1i(cid:54)=m is an indicator (7) sim(zm, zn) は、一対の潜在ベクトル (zm, zn) と 1i(cid:54)=m の間の余弦的類似性を表す。 0.60
function which is equal to 1 if i (cid:54)= m and zero otherwise, and τ indicates the temperature hyperparameter which determines the degree of repulsion. i (cid:54)= m が 0 でなければ 1 に等しい関数であり、τ は反発の度合いを決定する温度ハイパーパラメータである。 0.74
The final objective is to minimize the contrastive loss, defined in (8), over all positive pairs in a mini-batch: 最後の目的は、ミニバッチ内のすべての正の対に対して (8) で定義されるコントラスト損失を最小化することである。
訳抜け防止モード: 最後の目的は (8) で定義されるコントラスト損失を最小化することである。 ミニバッチにおける全ての正の対
0.76
LSimCLR = 1 2N LSimCLR = 1-2N 0.36
l(2i − 1, 2i) + l(2i, 2i − 1) l(2i − 1, 2i) + l(2i, 2i − 1) 0.48
. (8) (cid:105) . (8) (定員105名) 0.46
N(cid:88) (cid:104) N(第88回) (cid:104) 0.51
i=1 Contrastive learning models established themselves as powerful representation learning tools. i=1 である。 対照的な学習モデルは、強力な表現学習ツールとして確立された。 0.42
Still, they face crucial challenges for anomaly detection. それでも、異常検出の重要な課題に直面している。 0.51
Most widely-used contrastive learning algorithms, such as SimCLR and MoCo, need negative samples to operate. simclrやmocoなど、最も広く使われているコントラスト学習アルゴリズムは、運用に負のサンプルを必要とする。 0.64
However, we either only have access to the samples from one class in many anomaly detection tasks, or the distribution of classes is highly imbalanced. しかし、多くの異常検出タスクにおいて、1つのクラスからのみサンプルにアクセスするか、あるいはクラスの分布が極めて不均衡である。 0.81
In addition, the learned representation is not readily suitable for the anomaly detection task, and we need to define a proper anomaly score. さらに、学習した表現は、異常検出タスクに容易に適合せず、適切な異常スコアを定義する必要がある。 0.59
Despite these challenges, several contrastive anomaly detection models have emerged in the recent years. これらの課題にもかかわらず、いくつかの対照的な異常検出モデルが近年出現している。 0.58
The CSI method proposed by Tack et al (2020) was the first attempt for using contrastive learning in anomaly detection [42]. tack et al (2020) によって提案されたcsi法は, 異常検出におけるコントラスト学習を用いた最初の試みである [42]。 0.76
The CSI method is based on the idea of instance discrimination which considers every data point as a separate class and negative relative to other samples in the dataset [106]. CSI法は、すべてのデータポイントを別のクラスとみなし、データセット [106] の他のサンプルと比較して負であるとするインスタンス識別の考え方に基づいている。
訳抜け防止モード: CSI法は、すべてのデータポイントを独立したクラスとみなすインスタンス識別の考え方に基づいている データセット [106 ] の他のサンプルと比較して 負の値です
0.80
This idea is proven to be practical in visual representation learning for classification, but its performance in anomaly detection is unexplored [36]. この概念は分類のための視覚的表現学習において実用的であることが証明されているが、異常検出におけるその性能は未検討である [36]。 0.62
They also showed that if specific transformations are used for generating negative samples from a given point, the learned representation can be more appropriate for anomaly detection. 彼らはまた、特定の点から負のサンプルを生成するために特定の変換が使われる場合、学習された表現は異常検出により適していることを示した。
訳抜け防止モード: 彼らはまた 特定の変換は与えられた点から負のサンプルを生成するために使われる。 学習表現は異常検出にもっと適している。
0.74
These distribution-shiftin g transformations can be denoted by a set as S . これらの分布シフト変換は集合 S で表すことができる。 0.76
In contrast to SimCLR, which considers augmented samples as positive to each other, CSI attempts to consider them as negative if the augmentation is drawn from S. A significant conclusion of the CSI method is that although using the shifted transformations does not improve and even in some cases hurts the performance of the representation in other downstream tasks such as classification, it can improve the performance for anomaly detection. csi法の重要な結論は、シフト変換を使用することは改善されないが、たとえ分類のような他の下流タスクにおける表現のパフォーマンスを損なう場合であっても、異常検出の性能を向上させることができるというものである。
訳抜け防止モード: SimCLRとは対照的に、拡張サンプルは互いにポジティブだと考えている。 CSIはこれらを負とみなそうとしている augmentation is drawn from S. A significant conclusion of the CSI method 変化した変化を使っても 改善されず、場合によっては、分類のような他の下流タスクにおける表現のパフォーマンスを損なう。 異常検出の性能が向上する。
0.80
If we denote the set of shifting transformations by S = {S0 = I, S1, ..., SK−1} with I being the identity function and K different (either random or deterministic) transformations, the CSI loss can be written as: S = {S0 = I, S1, ..., SK−1} でシフト変換の集合を I が恒等函数であり、K が異なる(ランダムあるいは決定論的)変換であるとするならば、CSI の損失は次のように書ける。 0.75
Lcon−SI := LSimCLR Lcon-SI :=LSimCLR 0.36
(9) (cid:16) (cid:91) (9) (cid:16)(cid:91) 0.39
S∈S BS;T(cid:17) 佐藤 BS;T (cid:17) 0.32
i=1. In simpler terms, the Lcon−SI in which BS := {S(xi)}B is essentially the same as the SimCLR loss, but in the con-SI, the augmented samples are considered negative to each other. i=1。 単純な言い方をすれば、BS := {S(xi)}B の Lcon-SI は本質的に SimCLR の損失と同じであるが、con-SI では増分標本は互いに負と見なされる。 0.77
In addition to discriminating each shifted instances, an auxiliary task is added with a Softmax classifier pcls−SI (yS|x) that predicts which shifting transformation yS ∈ S is applied for a given input xi. シフトした各インスタンスの識別に加えて、任意の入力xiに対してシフト変換 yS ∈ S が適用されるかを予測するSoftmax分類器 pcls-SI (yS|x) が付加される。 0.70
The classifying shifted instances (cls-SI) loss is defined as below: シフトインスタンス(cls-si)の損失の分類は以下のとおりである。 0.71
− log pcls−SI (yS = S|ˆxS) − log pcls-SI (yS = S|\xS) 0.38
(10) Lcls−SI := (10) lcls-si := 0.51
1 2B 1 K (cid:88) 1-2B 1K (cid:88) 0.35
(cid:88) S∈S (cid:88) 佐藤 0.29
ˆxS∈ ˆBS シュクスサ・シュ・BS 0.24
英語(論文から抽出)日本語訳スコア
PREPRINT The final loss of CSI is then defined as: プレプリント CSIの最終損失は次のように定義される。 0.60
LCSI := Lcon−SI + λLcls−SI LCSI :=Lcon-SI + λLcls-SI 0.63
(11) CCM(m, n) = (11) CCM(m, n) = 0.43
(cid:40) α if ¯ym = ¯yn if ¯ym (cid:54)= ¯yn 1 τ (系統:40) α if sym = syn if sym (cid:54)= syn 1 τ 0.47
11 , (13) The authors of the CSI empirically showed that the norm of the representation (cid:107)z(x)(cid:10 7) is indeed a good anomaly score, where z is is the representation vector and (cid:107) · (cid:107) denotes the second norm. 11 , (13) csiの著者は経験的に (cid:107)z(x)(cid:10 7) のノルムは、z が表現ベクトルであり (cid:107) · (cid:107) が第2のノルムを表す良い異常スコアであることを示した。 0.50
This can be explained intuitively by considering that the contrastive loss increases the norm of the in-distribution samples to maximize the cosine similarity of samples generating from the same anchor. このことは、対照的な損失が分布内サンプルのノルムを増大させ、同じアンカーから生成されるサンプルのコサイン類似性を最大化することを考慮することで直観的に説明できる。 0.69
Consequently, during the test time, in-distribution samples are mapped further from the origin of the z space, while the representation of other data points, i.e. anomalies, have a smaller norm hence are closer to the origin. したがって、テスト時間の間、分布内サンプルはz空間の原点からさらにマッピングされ、他のデータポイント、すなわち異常の表現はより小さいノルムを持ち、したがって原点に近い。 0.64
This is an important observation as it helps to solve the problem of defining the anomaly score on a representation that is learned in an unsupervised fashion. これは、教師なしの方法で学習された表現において、異常スコアを定義する問題を解くのに役立つ重要な観察である。 0.58
The authors also found that the cosine similarity to the nearest training point in {xm} can be another good anomaly score. 著者らはまた、 {xm} の最も近い訓練点とコサインの類似性は、別の良い異常スコアであることを示した。 0.55
They defined the score of their model as a combination of these two metrics as below: scon(x;{xm}) := max 彼らはこれらの2つの指標の組み合わせとしてモデルのスコアを定義した: scon(x;{xm}) := max 0.84
sim(z(xm), zx). sim(z(xm), zx) である。 0.86
(cid:107)z(x)(cid:10 7) (cid:107)z(x)(cid:10 7) 0.43
(12) m Parallel to Tack et al (2020) (12) M Tack et al (2020年) 0.37
where zx is the representation vector of the test sample x and z(xm) is the closest representation vector in the training set. ここで、zx はテストサンプル x の表現ベクトルであり、z(xm) はトレーニング集合の最も近い表現ベクトルである。 0.81
[42], Winkens et al (2020) [78] developed a contrastive model for detecting out-ofdistribution instances. 42], winkens et al (2020) [78] は分布外インスタンスを検出するための対比モデルを開発した。 0.86
They evaluated their approach on several benchmark OOD tasks and showed that contrastive models are also capable in OOD. 彼らはいくつかのベンチマークOODタスクでアプローチを評価し、コントラストモデルもOODで可能であることを示した。 0.60
The paper’s key idea is that a fully supervised model might not be able to capture the patterns that can be useful for out-of-distribution detection. 論文のキーとなるアイデアは、完全に教師されたモデルでは、配布外検出に役立つパターンをキャプチャできない、ということだ。 0.66
However, using contrastive learning techniques, the model learns high-level and task-agnostic features that can also help detect OODs. しかし、対照的な学習手法を用いて、OODの検出にも役立つ高レベルかつタスクに依存しない特徴を学習する。
訳抜け防止モード: しかし 対照的な学習技術を使って モデルは高度に学習する - レベルとタスク - oodを検出するのにも役立ちます。
0.64
When we combine these techniques with the supervised learning techniques, the resulting model can learn more reliable features for both semantic classification and OOD detection. これらの手法を教師付き学習技術と組み合わせると、得られたモデルは意味分類とOOD検出の両方の信頼性の高い特徴を学習することができる。 0.67
The CSI algorithm shows that the task-agnostic representation learned through contrastive learning is suitable for anomaly detection. csiアルゴリズムは,コントラスト学習で学習したタスク非依存表現が異常検出に適していることを示す。 0.68
However, a task-specific approach can be more suitable for anomaly detection. しかし、タスク固有のアプローチは異常検出にもっと適している。 0.69
(The task may be defined as the AD task itself or another downstream task such as data classification.) (そのタスクはADタスク自身またはデータ分類などの下流タスクと定義することができる。) 0.76
The contrastive models, such as SimCLR, are quite helpful in learning a representation for individual data points. SimCLRのような対照的なモデルは、個々のデータポイントの表現を学ぶのに非常に役立ちます。 0.76
They can also learn separable clusters for each class without having access to any labels. ラベルにアクセスすることなく、各クラスごとに分離可能なクラスタを学習することも可能だ。 0.70
However, the resulting clusters may have blurry boundaries, and they commonly require fine-tuning for the downstream tasks. しかし、結果のクラスタはぼやけた境界を持ち、一般的に下流のタスクに微調整を必要とする。 0.57
To overcome this obstacle, Cho et al (2021) [39] developed a contrastive model which is tailored for anomaly detection. この障害を克服するため、Cho et al (2021) [39] は異常検出に適したコントラストモデルを開発した。 0.82
Their model, which is called Masked Contrastive Learning (MCL), modifies the degree of repulsion based on the labels of the data points. それらのモデルはMasked Contrastive Learning (MCL)と呼ばれ、データポイントのラベルに基づいて反発の度合いを変更する。 0.67
In vanilla SimCLR, all other batch samples, regardless of their class label, are considered negative relative to the anchor sample and are repelled with equal magnitude. バニラSimCLRでは、クラスラベルに関わらず、他の全てのバッチサンプルはアンカーサンプルに対して負と見なされ、等等級で撃退される。 0.74
However, the repelling ratio is defined by the following class-conditional mask (CCM): しかし、反発比は以下のクラス条件マスク(CCM)で定義される。 0.77
in MCL, MCL (複数形 MCLs) 0.46
where 0 < α < 1 τ . where 0 < α < 1 τ . 0.43
Basically, CCM adjusts the temperature τ for the same labelled views to a smaller value of α. 基本的に、CCMは同じラベル付きビューに対して温度τをαの小さい値に調整する。 0.71
This means that if the negative sample has the same class as the anchor, it is repelled with less magnitude compared to other data points. これはつまり、負のサンプルがアンカーと同じクラスである場合、他のデータポイントに比べてマグニチュードが小さいということを意味する。 0.81
The SimCLR loss function is modified according to this mask as follows: SimCLR損失関数はこのマスクに従って次のように変更される。 0.82
LCCM = 1 2N LCCM = 1-2N 0.36
lCCM (2i − 1, 2i) + lCCM (2i, 2i − 1) lCCM (2i − 1, 2i) + lCCM (2i, 2i − 1) 0.48
, (cid:105) , (定員105名) 0.47
(14) , N(cid:88) (14) , N(第88回) 0.49
(cid:104) i=1 (cid:104) i=1 である。 0.35
(cid:80)2N (cid:80)2n 0.35
pCCM (m, n) = pCCM (m, n) = 0.42
exp(sim(zm, zn)/τ ) exp(sim(zm, zn)/τ ) 0.46
i=1 1{i(cid:54)=m} exp(sim(zm, zi). i=1{i(cid:54)=m} exp(sim(zm, zi)。 0.90
CCM(m, i) (15) CCM(m, i)(15) 0.41
lCCM (m, n) = − log pCCM (m, n), lCCM (m, n) = − log pCCM (m, n) 0.40
(16) Although the proposed mask leads to a finer-grained representation space, the repulsive nature of the loss function may lead to the formation of scattered clusters. (16) 提案したマスクはより微細な表現空間に導かれるが、損失関数の反発特性は散乱クラスターの形成につながる可能性がある。 0.58
To prevent this phenomenon, the MCL algorithm stochastically attracts each sample to the instances with the same class label. この現象を防ぐため、MCLアルゴリズムは、各サンプルを同じクラスラベルを持つインスタンスに確率的に引き付ける。 0.78
To further improve the MCL model in [39], an auxiliary classifier that predicts the applied transformation is also employed. 39]におけるMCLモデルをさらに改善するため、適用された変換を予測する補助分類器も採用する。 0.78
The masking function is then modified based on the label of sample and its transformations. その後、マスキング関数はサンプルとその変換のラベルに基づいて変更される。 0.84
The repelling ratio is then smaller for the samples that simultaneously have the same class label and transformation labels, compared to the samples with the same class but different transformation labels. 次に、同じクラスラベルと異なる変換ラベルを持つサンプルと比較して、同じクラスラベルと変換ラベルを持つサンプルでは、反発比が小さくなる。 0.70
A sample with the latter property repels with a smaller magnitude than the negative points. 後者の性質を持つサンプルは、負点よりも小さい大きさで撃退される。 0.76
To score the anomalies in [39], the Mahalanobis distance マハラノビス距離[39]で異常を得点する 0.52
[107], shown in (17), is employed. 17に示す[107]が採用されている。 0.58
M D(x) = (zx − µ)T Σ−1(zx − µ), M D(x) = (zx − μ)T Σ−1(zx − μ) 0.44
(17) where zx is the representation of x, µ is the sample mean, and Σ is the sample covariance of features of the in-distribution training data. (17) zx は x の表現であり、μ はサンプル平均であり、Σ は分布内トレーニングデータの特徴のサンプル共分散である。 0.61
The Mahalanobis distance is a standard metric for scoring anomalies from their representation. マハラノビス距離は、それらの表現から異常を評価する標準的な計量である。 0.60
It does not require any labelled data that makes it a common choice for many anomaly detection algorithms. 多くの異常検出アルゴリズムで共通の選択となるラベル付きデータを必要としない。 0.74
In addition to this distance, the score of the auxiliary classifier is used to boost the model’s robustness. この距離に加えて、補助分類器のスコアがモデルの堅牢性を高めるために使用される。 0.72
In another similar work, Sehwag et al (2021) [76] explored the applicability of contrastive self-supervised learning for outof-distribution (OOD) and anomaly detection from unlabeled data, and proposed a method called SSD . 別の類似した研究として、sehwag et al (2021) [76] は、アウトオブディストリビューション(ood)のための対照的な自己教師あり学習とラベルなしデータからの異常検出の適用可能性を調査し、ssdと呼ばれる方法を提案した。 0.55
They also extended their algorithm to work with labelled data in two scenarios: First is the scenario in which it is assumed that there are a few labelled out-of-distribution samples (i.e. a k-shot learning setting where k is set to 1 or 5), and the second scenario is the case in which labels of the in-distribution data are provided during the training phase. 彼らはまた、2つのシナリオでラベル付きデータを扱うためにアルゴリズムを拡張した: 1つは、いくつかのラベル付きアウトオブディストリビューションサンプル(kが1または5に設定されたkショット学習設定)があると仮定するシナリオであり、もう1つのシナリオは、トレーニングフェーズ中に配信データのラベルが提供された場合である。 0.75
英語(論文から抽出)日本語訳スコア
PREPRINT 12 In SSD [76], the SimCLR is used to learn the representation and the Mahalanobis Distance is incorporated to detect anomalies. プレプリント 12 SSD[76]では、SimCLRを使用して表現を学習し、マハラノビス距離を組み込んで異常を検出する。 0.50
For the cases where the labelled data is present, the authors suggested using the SupCon loss, defined in (18), which is a supervised variant of the contrastive loss [108], to have a more effective selection of the positive and negative samples for each image. ラベル付きデータが存在する場合については、コントラスト損失[108]の教師付き変種である18で定義されたsupcon損失を用いて、各画像に対してより効果的な正と負のサンプルを選択することを提案している。 0.72
In SupCon, samples from the same class are treated as positive and other samples as negatives. supconでは、同じクラスのサンプルは正、その他のサンプルは負として扱われる。 0.74
LSupCon = (cid:80)2N (cid:80)2N i=1 1(i (cid:54)= m)1(yi = ym)euT i=1 1(i (cid:54)= m)euT LSupCon = (cid:80)2N (cid:80)2N i=1 1(i (cid:54)= m)1(yi = ym)euT i=1 1(i (cid:54)= m)euT 0.43
mui/τ mui/τ mui/τ mui/τ 0.29
, (18) 2N(cid:88) , (18) 2N (cid:88) 0.40
i=1 1 2N i=1 である。 1-2N 0.31
− log 1 2Nym−1 -ログ 1 2Nym−1 0.46
where Nym refers to the number of images with label ym in the batch, and ui = h(f (x)) with a projection head (cid:107)h(f (x))(cid:107)2 h(·) and an encoder f (·). Nym はラベル ym がバッチに含まれる画像の数を表し、ui = h(f (x)) は投影ヘッド (cid:107)h(f (x))(cid:107)2 h(·) とエンコーダ f (·) を持つ。 0.78
Using SupCon loss yielded better performance compared to the contrastive loss throughout their experiments for the OOD detection from a labelled dataset. supcon の損失はラベル付きデータセットからの ood 検出実験におけるコントラスト損失よりも優れた性能を示した。 0.77
Overall, Sehwag et al (2021) [76] showed that the contrastive approach can outperform other methods in OOD detection in both labelled and unlabeled settings. Sehwag et al (2021) [76] は, ラベル付きおよびラベルなしの両方の設定において, OOD検出における他の手法よりも優れていることを示した。 0.70
Contrastive models are also used in conjunction with oneclass models for anomaly detection. コントラストモデルは、異常検出のための一級モデルと組み合わせて用いられる。 0.71
One-class classifiers are one of the most widely used models in anomaly detection. 一級分類器は異常検出において最も広く用いられているモデルの1つである。 0.62
They can detect anomalies after learning from a single class of examples. 単一の例から学習した後に異常を検出することができる。 0.74
Sohn et al (2020) [72] employed a two-stage framework for detecting anomalies using self-supervised learning models. sohn et al (2020) [72] は,自己教師付き学習モデルを用いた異常検出のための2段階フレームワークを採用した。 0.67
In this framework, an SSL-based neural network is used to learn the representation of the input. このフレームワークでは、SSLベースのニューラルネットワークを使用して入力の表現を学習する。 0.77
A one-class classifier, such as OCSM or KDE, is applied to the learned representation to detect anomalies. ocsmやkdeのような1つのクラス分類器を学習表現に適用して異常を検出する。 0.70
The two-stage framework eliminates the need for defining an anomaly score and, as is empirically demonstrated in the paper, it can outperform other state-of-the-art methods. 2段階のフレームワークは、異常スコアを定義する必要性を排除し、論文で実証的に示されているように、他の最先端手法よりも優れている。 0.53
Despite their promising empirical results, one-class classifiers suffer from a critical problem known as catastrophic collapse. 有望な実証結果にもかかわらず、一級分類器は破滅的な崩壊として知られる重大な問題に悩まされる。 0.43
This phenomenon happens when the network converges to the trivial solution of mapping all the inputs to a single point regardless of the input sample value x, i.e. φ(x) = c where φ(·) denotes the network output. この現象は、入力されたサンプル値 x によらず、すべての入力を1つの点にマッピングする自明な解にネットワークが収束するときに起こる(つまり φ(·) はネットワーク出力を表す φ(x) = c である)。 0.84
This trivial solution is obtained when minimizing the center-loss defined as L = ||φ(x)−c||2 [33], [109]. この自明な解は l = ||φ(x)−c||2[33], [109] で定義される中心損失を最小化するときに得られる。 0.66
The features that the network learns in such case are uninformative and cannot be used for distinguishing anomalies from normal data. このような場合、ネットワークが学習する特徴は非形式的であり、通常のデータと異常を区別することはできない。 0.71
This issue is also known as “hypersphere collapse”. この問題は「超球崩壊」とも呼ばれる。 0.68
To overcome the hypersphere collapse problem, Reiss et al (2021) [40] proposed a new loss function, called Mean-shifted contrastive loss (MSCL). 超球崩壊問題を克服するため、Reiss et al (2021) [40] はMean-shifted contrastive loss (MSCL) と呼ばれる新しい損失関数を提案した。 0.80
Unlike the conventional contrastive loss, where the angular distance is computed relative to the origin, MSCL measures the angular distance relative to the normalized center of the extracted features. 角距離が原点に対して計算される従来のコントラスト損失とは異なり、msclは抽出された特徴の正規化中心に対する角距離を測定する。 0.79
An example of MSCL is shown in Fig 2. MSCLの例を図2に示します。 0.74
Formally, for a sample x, the meanshifted representation is defined as: 正式には、サンプル x に対して、平均シフト表現は次のように定義される。 0.60
θ(x) = φ(x) − c (cid:107)φ(x) − c(cid:107) , θ(x) = φ(x) − c (cid:107)φ(x) − c(cid:107) , 0.46
= − log exp((θ(x(cid:48)). =-ログ exp((θ(x(cid:48))。 0.67
θ(x(cid:48)(cid:48))) /τ ) θ(x(cid:48)(cid:48))/ τ ) 0.45
The mean-shifted contrastive loss is then given by: LM SCL(x(cid:48), x(cid:48)(cid:48)) = LCON S(θ(x(cid:48)), θ(x(cid:48)(cid:48))) 平均シフトされたコントラスト損失は、lm scl(x(cid:48), x(cid:48)(cid:48)) = lcon s(θ(x(cid:48)), θ(x(cid:48)(cid:48)) によって与えられる。 0.77
(cid:80)2N i=1 1[xi (cid:54)= x(cid:48)]. (cid:80)2N i=11[xi (cid:54)=x(cid:48)] 0.42
exp((θ(x(cid:48)). exp((θ(x(cid:48))。 0.90
θ(xi))/τ ) (19) where LCON S is the typical contrastive loss for a positive pair, shown in SimCLR [36], and x, x(cid:48)(cid:48) are the two augmentations of the input x. θ(xi))/τ ) (19) ここで LCON S は正対の典型的な対照的な損失であり、SimCLR [36] に示され、x(cid:48)(cid:48) は入力 x の2つの拡張である。 0.82
One limitation of the MSCL loss is that it implicitly encourages the network to increase the distance of features from the center. MSCL損失の1つの制限は、ネットワークが中心からの距離を増やすことを暗黙的に促すことである。 0.75
Because of this, normal data lie in a region far away from the center. このため、通常のデータは中心から遠く離れた領域にある。 0.66
To solve this issue, the loss function is modified by adding the angular center loss, which shrinks the distance of normal samples from the center. この問題を解決するために、角中心損失を追加して損失関数を変更し、中心から通常のサンプルの距離を縮小する。 0.73
Reiss et al (2021) [109] showed that the overall loss, which is a combination of the MSCL and the angular losses, can achieve a better training stability and higher accuracy in anomaly detection than the regular center-loss. reiss et al (2021) [109] は、msclと角損失の組み合わせである全体的な損失は、通常の中心損失よりもトレーニング安定性が向上し、異常検出の精度が向上することを示した。 0.71
, In summary, recent papers suggest that the representation that is learned through self-supervised learning is indeed very useful for anomaly detection. , 要約して、近年の論文は、自己教師付き学習によって学習される表現が、実際に異常検出に非常に有用であることを示唆している。
訳抜け防止モード: , まとめると 最近の論文は 自己-教師付き学習を通じて学習される表現は、確かに異常検出に非常に有用である。
0.51
An interesting observation is that even a simple scoring function such as the norm of the representation (cid:107)z(cid:107) can be used for detecting anomalies from the representations. 興味深い観察は、表現のノルム(cid:107)z(cid:107)のような単純なスコアリング関数でさえ、表現から異常を検出するために使用できることである。 0.73
This can be justified because, in CL-based models, the normal data is spread out on a hypersphere. これは、CLベースのモデルでは、通常のデータが超球面に広がるため、正当化できる。 0.70
This property can help to define the anomaly score as the distance of the representation from the center. この性質は、異常スコアを中心からの表現の距離として定義するのに役立ちます。 0.67
A smaller distance means a higher probability of the point belonging to the anomaly class. より小さい距離は、異常類に属する点のより高い確率を意味する。 0.75
VII. COMPARATIVE EVALUATION AND DISCUSSIONS To gain insight into the performance of the self-supervised algorithms, we present a comparative evaluation of the methods based on the results reported in their original paper. VII。 自己教師付きアルゴリズムの性能を考察するための比較評価と議論を行うため,本論文で報告した結果に基づく手法の比較評価を行った。 0.76
A flurry of datasets is used to benchmark the selfsupervised anomaly detection algorithms. 自己教師付き異常検出アルゴリズムのベンチマークには、一連のデータセットが使用される。 0.52
CIFAR-10 [110], and MVTecAD [51] are two of the most common dataset that recent anomaly detection papers used. CIFAR-10[110]とMVTecAD[51]は、最近の異常検出論文で使われている最も一般的なデータセットである。 0.70
CIFAR-10 includes images of ten different objects. CIFAR-10は10の異なる物体の画像を含む。 0.64
To benchmark an AD algorithm on this dataset, we assume that we only have access to the data from one of the classes during the training. このデータセット上でADアルゴリズムをベンチマークするために、トレーニング中にクラスのひとつのデータにしかアクセスできないと仮定する。 0.70
During the test time, other classes are considered to be anomalies. テスト期間中、他のクラスは異常と見なされる。 0.66
Table II presents the result of several state-of-the-art SSL models against the commonly-used shallow and deep baselines for one-class AD on the CIFAR-10 dataset. 表IIは、CIFAR-10データセット上の一級ADに対して一般的に使用される浅層および深層ベースラインに対して、最先端のSSLモデルの結果を示す。 0.57
This task can evaluate the performance of algorithms in the semantic (highlevel) anomaly detection. このタスクは、セマンティック(ハイレベル)異常検出におけるアルゴリズムの性能を評価することができる。 0.75
Looking at this table, we can readily confirm that the self-supervised approaches can outperform other shallow and deep anomaly detection algorithms by a significant margin. この表を見て、自己教師付きアプローチは、他の浅層および深層異常検出アルゴリズムをかなりのマージンで上回ることができることが容易に確認できる。
訳抜け防止モード: このテーブルを見て 自己教師付きアプローチが他の浅層および深層異常検出アルゴリズムをかなりのマージンで上回ることができることは容易に確認できる。
0.80
This remarkable improvement leads to the emergence of SSL algorithms as a key category of anomaly detection. この顕著な改善により、異常検出の重要なカテゴリとしてSSLアルゴリズムが出現する。 0.75
Besides semantic anomaly detection, self-supervised methods show satisfactory performance for defect detection and spotting sensory anomalies [113]–[115]. 意味的異常検出に加えて、自己監督法は欠陥検出とスポッティング感覚異常 [113]–[115] の良好な性能を示す。 0.80
Fig 4 shows the performance of the self-supervised models on the MVTecAD dataset against other widely-used algorithms including shallow models, deep models and generative models. 図4は、MVTecADデータセット上の自己教師型モデルと、浅いモデル、深いモデル、生成モデルを含む他の広く使われているアルゴリズムのパフォーマンスを示しています。 0.64
More specifically, 具体的には 0.73
英語(論文から抽出)日本語訳スコア
PREPRINT 13 PERFORMANCE OF SELF-SUPERVISED MODELS ON CIFAR-10 AGAINST SHALLOW AND DEEP BASELINES. プレプリント 13 せん断・深度ベースラインに対するCIFAR-10の自己抑制モデルの性能 0.62
THE BOLD VALUES DENOTE THE HIGHEST TABLE II 大胆な値は最も高い テーブルII 0.53
AUROC (%) RESULT FOR EACH CLASS クラスごとに auroc (%) の結果 0.56
Baseline Self-Predictive Method ベースライン 自己予測方法 0.69
Contrastive Learning Class コントラスト学習 クラス 0.70
Airplane Car Bird Cat Deer Dog Frog Horse Ship Truck Average: 飛行機 車の鳥の猫鹿の犬カエルの乗用車の平均は 0.60
KDE [25] OCSVM [26] KDE[25] OCSVM [26] 0.42
DSVDD [33] OCGAN [111] DSVDD[33] OCGAN[111] 0.41
DROCC [112] DROCC[112] 0.41
GEOM [37] RotNet [104] GEOM[37] RotNet [104] 0.42
OE [104] GOAD [99] 大江〔104〕 GOAD [99] 0.49
Puzzle-AD Puzzle (複数形 Puzzles) 0.22
[75] SSL-OE [74] [75] SSL-OE [74] 0.42
PANDA [109] CSI [42] パンダ[109] CSI[42] 0.51
SSD [76] ssd (複数形 ssds) 0.50
NDA [100] MSCL [40] NDA[100] MSCL[40] 0.41
61.2 64.0 50.1 56.4 66.2 62.4 74.9 62.6 75.1 76.0 64.8 61.2 64.0 50.1 56.4 66.2 62.4 74.9 62.6 75.1 76.0 64.8 0.21
65.6 40.9 65.3 50.1 75.2 51.2 71.8 51.2 67.9 48.5 58.8 65.6 40.9 65.3 50.1 75.2 51.2 71.8 51.2 67.9 48.5 58.8 0.21
61.7 65.9 50.8 59.1 60.9 65.7 67.7 67.3 75.9 73.1 64.8 61.7 65.9 50.8 59.1 60.9 65.7 67.7 67.3 75.9 73.1 64.8 0.21
75.7 53.1 64.0 62.0 72.3 62.0 72.3 57.5 82.0 55.4 65.7 75.7 53.1 64.0 62.0 72.3 62.0 72.3 57.5 82.0 55.4 65.7 0.21
81.7 76.7 66.7 67.1 73.6 74.4 74.4 71.4 80.0 76.2 74.2 81.7 76.7 66.7 67.1 73.6 74.4 74.4 71.4 80.0 76.2 74.2 0.21
74.7 95.7 78.1 72.4 87.8 87.8 83.4 95.5 93.3 91.3 86.0 74.7 95.7 78.1 72.4 87.8 87.8 83.4 95.5 93.3 91.3 86.0 0.21
71.9 94.5 78.4 70.0 77.2 86.8 81.6 93.7 90.7 88.8 83.3 71.9 94.5 78.4 70.0 77.2 86.8 81.6 93.7 90.7 88.8 83.3 0.21
87.6 93.9 78.6 79.9 81.7 85.6 93.3 87.9 92.6 92.1 87.3 87.6 93.9 78.6 79.9 81.7 85.6 93.3 87.9 92.6 92.1 87.3 0.21
77.2 96.7 83.3 77.7 87.8 87.8 90.0 96.1 93.8 92.0 88.2 77.2 96.7 83.3 77.7 87.8 87.8 90.0 96.1 93.8 92.0 88.2 0.21
78.9 78.2 69.9 54.9 75.5 66.0 74.8 73.3 83.3 70.0 72.5 78.9 78.2 69.9 54.9 75.5 66.0 74.8 73.3 83.3 70.0 72.5 0.21
90.4 99.3 93.7 88.1 97.4 94.3 97.1 98.8 98.7 98.5 95.6 90.4 99.3 93.7 88.1 97.4 94.3 97.1 98.8 98.7 98.5 95.6 0.21
97.4 98.4 93.9 90.6 97.5 94.4 97.5 97.5 97.6 97.4 96.2 97.4 98.4 93.9 90.6 97.5 94.4 97.5 97.5 97.6 97.4 96.2 0.21
89.9 99.1 93.1 86.4 93.9 93.2 95.1 98.7 97.9 95.5 94.3 89.9 99.1 93.1 86.4 93.9 93.2 95.1 98.7 97.9 95.5 94.3 0.21
82.7 98.5 84.2 84.5 84.8 90.9 91.7 95.2 92.9 94.4 90.0 82.7 98.5 84.2 84.5 84.8 90.9 91.7 95.2 92.9 94.4 90.0 0.21
98.5 76.5 79.6 79.1 92.4 71.7 97.5 69.1 98.5 75.2 84.3 98.5 76.5 79.6 79.1 92.4 71.7 97.5 69.1 98.5 75.2 84.3 0.21
97.7 98.9 95.8 94.5 97.3 97.1 98.4 98.3 98.7 98.4 97.5 97.7 98.9 95.8 94.5 97.3 97.1 98.4 98.3 98.7 98.4 97.5 0.21
the compared shallow models are Gaussian [45], MVE [45], SVDD [116], KDE [45], kPCA [45], patch-SVDD [117] and IGD [118]. 比較された浅いモデルは、Gaussian [45], MVE [45], SVDD [116], KDE [45], kPCA [45], patch-SVDD [117], IGD [118]である。 0.82
The compared deep models are CAVGA [119], ARNet [120], SPADE [121], MOCCA [122], DSVDD [33], FCDD [123], DFR [124], STFPM [125], Gaussian-AD [126], InTra [127], PaDiM [128] and DREAM [129]. 比較した深層モデルはcavga [119], arnet [120], spade [121], mocca [122], dsvdd [33], fcdd [123], dfr [124], stfpm [125], gaussian-ad [126], intra [127], padim [128], dream [129]である。 0.68
The included generative models in Fig 4 are AnoGAN [31], LSA [130], GANomaly [131], AGAN [45], Normalizing Flowsbased DifferNet [132], CFLOW [133] and CS-Flow [134]. 図4に含まれる生成モデルは、AnoGAN [31], LSA [130], GANomaly [131], AGAN [45], Normalizing Flows based DifferNet [132], CFLOW [133], CS-Flow [134]である。 0.81
Looking at the figure, we can infer that SSL-based models can achieve a good performance on this dataset. この図を見ると、SSLベースのモデルがこのデータセットで優れたパフォーマンスを達成できると推測できます。 0.73
However, the superiority of self-supervised algorithms over other baselines is less evident in this task than in one-class AD. しかし、他のベースラインよりも自己教師付きアルゴリズムの方が優れていることは、1クラスADよりも明らかではない。 0.53
Also, some algorithms such as GEOM, and CSI, which show state-of-theart performance on CIFAR-10, achieve a weak accuracy in this anomaly detection task. また、CIFAR-10上での最先端性能を示すGEOMやCSIなどのアルゴリズムは、この異常検出タスクにおいて弱い精度を達成する。 0.72
The above argument manifests the importance of choosing the right pretext task in self-supervised learning. 上記の議論は、自己監督学習において正しい前文タスクを選択することの重要性を示している。 0.59
Methods such as GEOM and RotNet which are based on geometric transformations, and CSI and SSD which are based on contrastive methods, work well for detecting semantic anomalies, but they are not well-suited for defect detection. 幾何学的変換に基づくgeomやrotnet、対比的手法に基づくcsiやssdといった手法は、意味的異常の検出には適しているが、欠陥検出には適していない。 0.73
On the other hand, SSL approaches that are based on pixel-level transformations, such as CutPaste, can achieve good accuracy on the MVTecAD dataset. 一方、CutPasteのようなピクセルレベルの変換に基づくSSLアプローチは、MVTecADデータセット上で高い精度を達成することができる。 0.65
Choosing the right proxy task, depending on the downstream objective and types of anomalies, is the key to the success of the SSL models. 適切なプロキシタスクの選択は、ダウンストリームの目的と異常の種類によって異なり、sslモデルの成功の鍵となります。 0.73
This allows researchers to improve the state-of-the-art by coming up with effective pretext tasks. これによって研究者は、効果的なプリテキストタスクを考案することで、最先端の技術を改善できる。 0.49
Out-of-distribution detection is another task in which SSL models are widely applied. アウト・オブ・ディストリビューション検出はSSLモデルが広く適用される別のタスクである。 0.59
Table III shows the experimental results of some SSL models (shown in the top 10 rows) against a supervised method, shown in the last row of the table. 表IIIは、テーブルの最後の行で示されている教師付きメソッドに対するSSLモデルの実験結果(トップ10行に区切られた)を示している。 0.82
The supervised method is in fact a ResNet-50 network that is trained to classify the data available in CIFAR-10 from the other OOD dataset – i.e., ResNet-50 is trained as an eleven-way classifier, ten for CIFAR-10 and one for the OOD dataset. 教師付き手法は実際には、CIFAR-10で利用可能なデータを他のOODデータセットから分類するために訓練されたResNet-50ネットワークであり、つまり、ResNet-50は11方向の分類器として訓練され、CIFAR-10は10、OODデータセットは1である。 0.62
To benchmark an OOD algorithm, it is common to train a model on the CIFAR-10 dataset and test the model OODアルゴリズムのベンチマークでは、CIFAR-10データセット上でモデルをトレーニングし、モデルをテストすることが一般的である。 0.66
PERFORMANCE OF SSL MODELS AGAINST A SUPERVISE-BASED METHOD スーパーバイザ方式におけるSSLモデルの性能評価 0.54
FOR OOD DETECTION. ood検出のためです 0.21
THE BOLD VALUES DENOTE THE HIGHEST AUROC (%) RESULT FOR EACH OOD DATASET 大胆な値は最も高い oodデータセット毎のauroc (%)結果 0.43
TABLE III IND: CIFAR-10 テーブルIII IND:CIFAR-10 0.51
IND: CIFAR-100 IND:CIFAR-100 0.39
Method OOD: OOD: 方法 OOD OOD 0.44
CIFAR-100 SVHN LSUN CIFAR-10 SVHN LSUN CIFAR-100 SVHN LSUN CIFAR-10 SVHN LSUN 0.37
75.7 86.9 93.4 75.7 86.9 93.4 0.29
RotNet [104] RotNet [104] 0.42
CSI [42] SSL-OE [74] CSI[42] SSL-OE [74] 0.42
CLP [78] SSL-OOD [38] CLP[78] SSL-OOD [38] 0.42
MCL [39] MCL-SEI [39] MCL[39] MCL-SEI [39] 0.42
SSD [76] ssd (複数形 ssds) 0.50
SSDk (k=5) [76] SSDk (k=5) [76] 0.47
SDNS [135] ResNet-50 [76] SDNS[135] ResNet-50[76] 0.41
93.3 89.2 93.3 92.9 93.8 90.8 94.0 90.6 93.1 94.2 90.6 93.3 89.2 93.3 92.9 93.8 90.8 94.0 90.6 93.1 94.2 90.6 0.21
94.4 99.8 98.4 99.5 99.2 97.9 99.3 99.6 99.7 99.9 99.6 94.4 99.8 98.4 99.5 99.2 97.9 99.3 99.6 99.7 99.9 99.6 0.21
97.6 90.3 93.2 97.6 90.3 93.2 0.24
- 98.9 93.8 96.3 96.5 97.8 97.5 93.8 - 98.9 93.8 96.3 96.5 97.8 97.5 93.8 0.32
- - 78.9 77.7 - - 78.9 77.7 0.37
69.6 78.3 67.6 55.3 69.6 78.3 67.6 55.3 0.23
- - 95.4 95.8 - - 95.4 95.8 0.37
94.9 99.1 97.2 94.5 94.9 99.1 97.2 94.5 0.23
- - 88.9 79.5 93.4 74.6 69.4 - - 88.9 79.5 93.4 74.6 69.4 0.34
using another dataset. 別のデータセットを使って 0.62
If the samples of the test datasets are similar to the CIFAR-10 to some extent, the task is called nearOOD detection (e g CIFAR-10 vs. CIFAR-100). テストデータセットのサンプルが CIFAR-10 とある程度類似している場合、そのタスクは nearOOD 検出 (例: CIFAR-10 vs. CIFAR-100) と呼ばれる。 0.80
Otherwise, it is referred to as far-OOD detection (e g CIFAR-10 vs. SVHN, or CIFAR-10 vs. LSUN). 例えば、CIFAR-10 vs. SVHN、またはCIFAR-10 vs. LSUN)と呼ばれる。 0.64
We observe that SSL can even achieve better performance than the supervised baseline. SSLは教師付きベースラインよりも優れたパフォーマンスを実現することができる。 0.67
This manifests that it is not necessary to have access to the data ground truths for the OOD detection task. これは、OOD検出タスクのために、データ基底の真理にアクセスする必要はないことを示している。 0.73
The results reported in Table III shows that all the SSLbased methods can achieve an accuracy above 94% on farOOD detection (i.e. CIFAR-10 vs. SVHN). 表IIIで報告された結果は、全てのSSLベースの手法が farOOD 検出において 94% 以上の精度(CIFAR-10 vs. SVHN)を達成可能であることを示している。 0.66
It can suggest that the SSL models can learn meaningful features of the dataset. SSLモデルがデータセットの有意義な特徴を学習できることを示唆することができる。 0.75
Almost all algorithms perform well in near-OOD detection, and some can even beat the supervised baseline. ほぼ全てのアルゴリズムは、ほぼOOD検出においてよく機能し、一部は教師付きベースラインを破ることもできる。 0.60
VIII. FUTURE DIRECTIONS AND CONCLUSION VIII。 未来方向とコンキュレーション 0.66
Although the self-supervised models have established themselves as state-of-the-art in anomaly detection, there is still in this research field. 自己教師型モデルは、異常検出における最先端技術として確立されているが、この研究分野にはまだ存在する。 0.50
This much room for improvement この多くの改善の余地 0.81
英語(論文から抽出)日本語訳スコア
PREPRINT 14 Fig. 4. プレプリント 14 図4。 0.49
Performance of anomaly detection algorithms on the MVTecAD dataset. MVTecADデータセットにおける異常検出アルゴリズムの性能 0.81
Each group of algorithm is denoted by a different colour. アルゴリズムの各群は異なる色で表される。 0.68
section briefly discusses some critical challenges that SSLbased anomaly detectors suffer from and presents some highlevel ideas for addressing them. セクションはSSLベースの異常検知器が苦しむいくつかの重要な課題を簡潔に議論し、それに対応するための高レベルなアイデアを提示している。 0.46
A. Negative Sampling in Contrastive Models 対比モデルにおける負のサンプリング 0.79
In the recent years, contrastive models dominated selfsupervised AD algorithms. 近年では、コントラストモデルが自己教師付きADアルゴリズムを支配している。 0.56
To learn an efficient representation, CL algorithms require accessing negative samples. 効率的な表現を学ぶためには、CLアルゴリズムは負のサンプルにアクセスする必要がある。 0.53
In the standard setting, it is assumed that other batch samples are negative, even though their class label is the same as that of the query sample. 標準設定では、クラスラベルがクエリサンプルと同じであっても、他のバッチサンプルは否定的であると仮定される。 0.68
However, if the number of same-class samples increases, the quality of the learned representation degrades. しかし、同じクラスサンプルの数が増加すると、学習表現の品質が低下する。 0.72
In some anomaly detection tasks, where the training data comprises samples of one class, this negative sampling bias may turn into a big issue. トレーニングデータが1つのクラスのサンプルを含むような異常検出タスクでは、この負のサンプリングバイアスが大きな問題となる可能性がある。 0.73
This motivates researchers to design unbiased versions of the contrastive loss [136]. これは対照的な[136]の偏りのないバージョンを研究者が設計する動機となっている。 0.54
Interestingly, previous studies showed that even in the oneclass setting, the instance discrimination contrastive learning can lead to a suitable representation for anomalies. 興味深いことに、以前の研究では、一クラスの設定でも、インスタンス識別の対比学習は、異常に対する適切な表現につながる可能性がある。 0.47
This can be because all the training data are spread out on a hypersphere, and the anomalies are mapped to the center of the space, as we discussed in section VI. これは、すべてのトレーニングデータが超球面上に展開され、第6節で論じたように、異常は空間の中心にマッピングされるためである。 0.65
Following the success of SimCLR, several other contrastive models are developed. SimCLRの成功に続いて、いくつかのコントラストモデルが開発された。 0.63
These methods can be good candidates for one-class anomaly detection since they can be trained using only positive samples. これらの手法は、正のサンプルのみを用いてトレーニングできるため、一級異常検出の候補となる。 0.70
Some recent models, such as BYOL [137] and Barlow Twins [138], do not require negative samples during training. BYOL[137]やBarlow Twins[138]といった最近のモデルは、トレーニング中に負のサンプルを必要としない。 0.78
To the best of our knowledge, there is no study that evaluates the performance of these models for anomaly detection. 我々の知る限り、異常検出のためのこれらのモデルの性能を評価する研究は存在しない。 0.79
B. Incorporating Labelled Data B.ラベリングデータの導入 0.79
In the most anomaly detection studies, it is assumed that no labeled anomaly is available during the training phase. 最も異常な検出研究では、トレーニング段階でラベル付き異常は利用できないと仮定されている。 0.74
However, in some applications, we might be able to have a few labelled anomalies. しかし、いくつかのアプリケーションでは、ラベル付き異常がいくつかあるかもしれません。 0.58
These labelled samples can significantly improve the algorithm if incorporated appropriately. これらのラベル付きサンプルは、適切に組み込まれればアルゴリズムを大幅に改善することができる。 0.52
Recently, Sehwag et al (2021) [76] explored the problem of fewshot anomaly detection, where they assume a few labelled anomalies are present. sehwag et al (2021) [76] では、いくつかのラベル付き異常が存在すると仮定した、少数ショット異常検出の問題を調査した。 0.66
They showed that even a few anomalies can significantly improve the detection accuracy. 彼らは、少数の異常でも検出精度を大幅に改善できることを示した。 0.63
Zheng et al (2022) [139] proposed an extended algorithm of multi-scale contrastive learning, called ANEMONE, by incorporating it with a handful of ground-truth anomalies. Zheng et al (2022) [139] は、AnEMONEと呼ばれる拡張されたマルチスケールのコントラスト学習アルゴリズムを提案した。
訳抜け防止モード: Zheng et al (2022 ) [139 ] は ANEMONE と呼ばれるマルチスケールコントラスト学習の拡張アルゴリズムを提案した。 少数の根拠 – 真実の異常 – を組み込むこと。
0.80
Since the assumption of having access to a few anomaly samples during training time is feasible in many tasks, we believe that models with capability to incorporate them have a great potential to improve the detection performance. トレーニング期間中にいくつかの異常サンプルにアクセスするという仮定は多くのタスクで実現可能であるため、それらを組み込む能力を持つモデルが検出性能を向上させる大きな可能性を秘めていると信じている。 0.73
Such methods also have more application in the real-life problems. このような手法は実生活問題にも適用できる。 0.63
C. Going Beyond Visual Anomaly Detection c. 視覚異常検出を超えて 0.70
Traditionally, self-supervised learning literature focused on visual representation learning. 伝統的に、自己指導型学習文学は視覚表現学習に焦点を当てていた。 0.51
Even most recent anomaly detection algorithms are developed for visual anomaly detection. 最近の異常検出アルゴリズムでさえ、視覚異常検出のために開発されている。 0.62
Hence, it is no surprise that visual anomaly detectors can dominate the self-supervised AD field. したがって、視覚異常検出器が自己監督ADフィールドを支配できるのは驚くにあたらない。 0.70
Inspired by the success of these algorithms, several papers have started to propose self-supervised frameworks for detecting anomalies in other data types. これらのアルゴリズムの成功に触発されて、いくつかの論文が他のデータ型における異常を検出するための自己教師付きフレームワークを提案し始めている。
訳抜け防止モード: アルゴリズムの成功に触発されて いくつかの論文が 他のデータ型における異常を検出するための自己教師付きフレームワークを提案する。
0.65
For instance, Zheng et al (2021) [140] developed a SSL-based CL method to detect graph anomalies in two social network and four citation network datasets. 例えば、Zheng et al (2021) [140] は、2つのソーシャルネットワークと4つの引用ネットワークデータセットでグラフ異常を検出するSSLベースのCL法を開発した。 0.73
In regard to speech data, Zhang et al (2022) [141] proposed a selfsupervised learning and an adaptive memory fusion module to 音声データに関して、zhang et al (2022) [141] は自己教師あり学習と適応型メモリ融合モジュールを提案した。 0.76
英語(論文から抽出)日本語訳スコア
PREPRINT 15 learn general normal patterns and rich feature representations, respectively. プレプリント 15 一般的な普通のパターンと リッチな特徴表現を学びます 0.53
This supports detecting anomalies that are present in multivariate time series. これは多変量時系列に存在する異常の検出をサポートする。 0.71
Hojjati and Armanfard [142] also proposed a contrastive approach for detecting abnormal industrial sounds. Hojjati と Armanfard [142] もまた、異常な産業音を検出するための対照的なアプローチを提案した。 0.65
Since anomaly detection’s application spans a vast area of application, exploring the idea of self-supervised learning for other input types, such as medical signals, is also important. anomaly detectionの応用は広い範囲にわたるため、医療信号などの他の入力タイプに対する自己教師あり学習という考え方も重要である。
訳抜け防止モード: 異常検出 のアプリケーションは、広範囲のアプリケーションにまたがる。 医学信号など他の入力タイプに対する自己指導型学習の考え方を探求すること これも重要なことです
0.82
Developing a suitable pretext task for these data types can be a significant challenge that researchers face. これらのデータタイプに適したプリテキストタスクを開発することは、研究者が直面する大きな課題である。 0.68
D. Conclusion In this paper, we discussed the state-of-the-art methods in self-supervised anomaly detection and highlighted the strengths and drawbacks of each approach. 結論 本稿では,自己教師あり異常検出における最先端手法について検討し,それぞれのアプローチの強みと欠点を強調する。 0.48
We also compared their performance on benchmark datasets and pinpointed their applications. ベンチマークデータセットのパフォーマンスも比較し、アプリケーションを特定しました。 0.55
In summary, we can argue that self-supervised models are well suited for tackling the problem of anomaly detection. 要約すると、自己教師付きモデルは異常検出の問題に取り組むのに適していると言える。
訳抜け防止モード: まとめると、私たちはそれを議論できる。 自己制御モデルは異常検出の問題に取り組むのに適している。
0.65
Yet, there are still a lot of under-explored issues and room for improvement. しかし、まだ探索されていない問題や改善の余地はたくさんあります。 0.61
Still, the significant success of SSL algorithms offers a bright horizon for achieving new milestones in automatic anomaly detection. それでも、SSLアルゴリズムの大きな成功は、自動異常検出の新たなマイルストーンを達成するための明るい地平を提供する。 0.67
ACKNOWLEDGMENTS The authors wish to acknowledge the financial support of the Natural Sciences, Engineering Research Council of Canada (NSERC), Fonds de recherche du Qu´ebec, and the Department of Electrical and Computer Engineering at McGill University. 裏書き 著者らは自然科学、カナダ工学研究評議会(nserc)、fances de recherche du qu ́ebec、マギル大学の電気・コンピュータ工学科の財政支援を認めたいと考えている。 0.45
This research was enabled in part by support provided by Calcul Quebec and Compute Canada. この研究は、一部はCalcul QuebecとCompute Canadaの支援によって実現された。 0.70
REFERENCES [1] V. Chandola, A. Banerjee, and V. Kumar, “Outlier detection: A survey,” 参考 [1] v. chandola, a. banerjee, v. kumar, “outlier detection: a survey” などです。 0.67
ACM Computing Surveys, vol. ACM Computing Surveys, vol。 0.74
14, p. 15, 2009. 2009年4月15日現在。 0.64
[2] H. Wang, M. J. Bah, and M. Hammad, “Progress in outlier detection techniques: A survey,” Ieee Access, vol. [2] h. wang, m. j. bah, and m. hammad, “exgress in outlier detection techniques: a survey”(異常検出技術の進歩:調査)だ。 0.68
7, pp. 107 964–108 000, 2019. 7, pp. 107 964–108 000, 2019. 0.50
[3] M. A. Pimentel, D. A. Clifton, L. Clifton, and L. Tarassenko, “A review of novelty detection,” Signal processing, vol. M. A. Pimentel, D. A. Clifton, L. Clifton, L. Tarassenko, “A review of novelty detection, Signal processing, vol。
訳抜け防止モード: [3 ]M. A. Pimentel, D. A. Clifton, L. Clifton, とL. Tarassenko氏は述べている。
0.57
99, pp. 215–249, 2014. 99, pp. 215-249, 2014。 0.87
[4] E. Zisselman and A. Tamar, “Deep residual flow for out of distribution detection,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2020, pp. 13 994–14 003. 4] e. zisselman and a. tamar, "deep residual flow for out of distribution detection" in the ieee/cvf conference on computer vision and pattern recognition, 2020, pp. 13 994–14 003
訳抜け防止モード: [4 ] E. Zisselman と A. Tamar は,「分布検出不能の深い残留流」である。 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition, 2020, pp. 13 994–14 003 。
0.87
[5] A. Ayadi, O. Ghorbel, A. M. Obeid, and M. Abid, “Outlier detection approaches for wireless sensor networks: A survey,” Computer Networks, vol. A. Ayadi, O. Ghorbel, A. M. Obeid, and M. Abid, “Outlier detection approach for wireless sensor network: A survey”, Computer Networks, vol。
訳抜け防止モード: 5 ] a. ayadi, o. ghorbel, a. m. obeid, そしてm. abidは、“ワイヤレスセンサネットワークの異常検出アプローチ: 調査, コンピュータネットワーク, vol.
0.81
129, pp. 319–333, 2017. 129, pp. 319-333, 2017。 0.44
[6] H. -J. Liao, C. [6]H。 -j。 リアオ、c。 0.52
-H. R. Lin, Y. -h。 R・リン、Y。 0.72
-C. Lin, and K. -Y. -C。 リン、K。 -y。 0.42
Tung, “Intrusion detection system: A comprehensive review,” Journal of Network and Computer Applications, vol. とjournal of network and computer applications, vol.1は書いている。 0.30
36, no. 1, pp. 16–24, 2013. 36, No. 1, pp. 16–24, 2013。 0.94
[7] Y. Xin, L. Kong, Z. Liu, Y. Chen, Y. Li, H. Zhu, M. Gao, H. Hou, and C. Wang, “Machine learning and deep learning methods for cybersecurity,” Ieee access, vol. Y.Xin, L. Kong, Z. Liu, Y. Chen, Y. Li, H. Zhu, M. Gao, H. Hou, C. Wang, “Machine Learning and Deep Learning methods for Cybersecurity”, Ieee access, Vol.
訳抜け防止モード: [7]Y.Xin,L.Kong,Z.Lu, Y. Chen, Y. Li, H. Zhu, M. Gao H. Hou, C. Wang, “サイバーセキュリティのための機械学習とディープラーニング” Ieee access , vol。
0.87
6, pp. 35 365–35 381, 2018. 6, pp. 35 365–35 381, 2018. 0.50
[8] R. K. Malaiya, D. Kwon, J. Kim, S. C. Suh, H. Kim, and I. Kim, “An empirical evaluation of deep learning for network anomaly detection,” in 2018 International Conference on Computing, Networking and Communications (ICNC). R. K. Malaiya, D. Kwon, J. Kim, S. C. Suh, H. Kim, I. Kim, “An empirical evaluation of Deep Learning for network anomaly detection” in 2018 International Conference on Computing, Networking and Communications (ICNC)。
訳抜け防止モード: [8 ]R・K・マライヤ、D・クウォン、J・キム S.C. Suh, H. Kim, I. Kim, “ネットワーク異常検出のためのディープラーニングの実証的評価”。 2018年、ICNC(International Conference on Computing, Networking and Communications)に参加。
0.78
IEEE, 2018, pp. 893–898. ieee, 2018, pp. 893-898。 0.59
[9] M. Ahmed, A. N. Mahmood, and M. R. Islam, “A survey of anomaly detection techniques in financial domain,” Future Generation Computer Systems, vol. 9] m. ahmed, a. n. mahmood, and m. r. islam, “a survey of anomaly detection techniques in financial domain”, future generation computer systems, vol. 次世代コンピュータシステム。 0.78
55, pp. 278–288, 2016. 55, pp. 278-288, 2016年。 0.74
[10] A. Abdallah, M. A. Maarof, and A. Zainal, “Fraud detection system: A survey,” Journal of Network and Computer Applications, vol. 10] a. abdallah, m. a. maarof, and a. zainal, “fraud detection system: a survey”, journal of network and computer applications, vol. (英語)
訳抜け防止モード: [10 ]A. Abdallah,M. A. Maarof,A. Zainal フラッド検出システム : ネットワークとコンピュータアプリケーションに関するジャーナル,vol
0.68
68, pp. 90–113, 2016. 68, pp. 90-113, 2016年。 0.77
[11] E. Principi, F. Vesperini, S. Squartini, and F. Piazza, “Acoustic novelty detection with adversarial autoencoders,” in 2017 International Joint Conference on Neural Networks (IJCNN). E. Principi, F. Vesperini, S. Squartini, F. Piazza, “Acoustic novelty detection with adversarial autoencoders” in 2017 International Joint Conference on Neural Networks (IJCNN)。
訳抜け防止モード: 11 ] e. principi, f. vesperini, s. squartini, f. piazza: “adversarial autoencoderによる音響ノベルティ検出” 2017年、国際ニューラルネットワーク合同会議(ijcnn)が開催された。
0.75
IEEE, 2017, pp. 3324– 3330. IEEE, 2017, pp. 3324– 3330。 0.91
TABLE IV LIST OF ABBREVIATIONS テーブルIV 略称の一覧 0.52
Abbreviation Description AD AE ARNet AUROC CAVGA CFLOW CL CLP CS-Flow CSI CT DFR DREAM DROC DROCC DSVDD EEG GAN GDE GOEM FCDD KDE kPCA IF IGD IMU IND InTra LPUE LSA MCL MOCCA MoCo MRI MSCL MVE NAF-AL NSA OCGAN OCSVM OCT OE OOD PANDA PaDiM RotNet SDNS SD-OCT SL-GAD SimCLR SPADE SSD SSL SSL-AD SSL-OE STFPM 略語 解説 AD AE ARNet AUROC CAVGA CFLOW CL CLP CS-Flow CSI CT DFR DREAM DROCC DSVDD EEG GDE GOEM FCDD KDE kPCA IF IGD IMU IND InTra LPUE LSA MCL MOCCA MoCO MRI MSCL MVE NAF-AL NSA OCGAN OCSVM OCT OE OOD PANDA PaDiM RotNet SDNS SD-OCT SL-GAD SimCLR SPADE SSD SSL-AD SSL-OE STFPM 0.56
Anomaly Detection Autoencoder Attribute Restoration Network Area Under the ROC Curve Conv-Adversarial Variational AE with Guided Attention Conditional Normalizing Flows Contrastive Learning Confusion Log Probability Convolutional Cross-Scale Normalizing Flow Contrasting Shifted Instances Computed Tomography Deep Feature Reconstruction Discri-Trained Deconstruction Anomaly Embedding Model Deep One-class Classification Deep Robust One-Class Classification Deep Support Vector Data Description Electroencephalogram Generative Adversarial Network Gaussian Density Estimator Geometric Transformations Fully Convolutional Data Description Kernel Density Estimation Kernel Principal Component Analysis Isolation Forests Interpolated Gaussian Descriptors Inertial Measurement Unit In-Distribution Inpainting Transformer Learning from Positive and Unlabeled Examples Latent Space Autoregression Masked Contrastive Learning Multi-layer One-Class Classification Momentum Contrast Magnetic Resonance Imaging Mean-Shifted Contrastive Loss Minimum Volume Ellipsoids Neural Autoregressive Flows Natural Synthetic Anomalies One-Class Generative Adversarial Network One-Class Support Vector Machine Optical Coherence Tomography Outlier Exposure Out of Distribution Pretrained Anomaly Detection Adaptation Patch Distribution Modeling Rotation Network Self-Distillation and Negative Sampling Spectral Domain Optical Coherence Tomography Self-Supervised Learning for Graph Anomaly Detection Simple framework for CL of visual Representations Semantic Pyramid Anomaly Detection Self-Supervised outlier Detection Self-Supervised Learning Self-Supervised Learning in Anomaly Detection Rotation Prediction with Outlier Exposure Student-Teacher Feature Pyramid Matching Anomaly Detection Autoencoder Attribute Restoration Network Area Under the ROC Curve Conv-Adversarial Variational AE with Guided Attention Conditional Normalizing Flows Contrastive Learning Confusion Log Probability Convolutional Cross-Scale Normalizing Flow Contrasting Shifted Instances Computed Tomography Deep Feature Reconstruction Discri-Trained Deconstruction Anomaly Embedding Model Deep One-class Classification Deep Robust One-Class Classification Deep Support Vector Data Description Electroencephalogram Generative Adversarial Network Gaussian Density Estimator Geometric Transformations Fully Convolutional Data Description Kernel Density Estimation Kernel Principal Component Analysis Isolation Forests Interpolated Gaussian Descriptors Inertial Measurement Unit In-Distribution Inpainting Transformer Learning from Positive and Unlabeled Examples Latent Space Autoregression Masked Contrastive Learning Multi-layer One-Class Classification Momentum Contrast Magnetic Resonance Imaging Mean-Shifted Contrastive Loss Minimum Volume Ellipsoids Neural Autoregressive Flows Natural Synthetic Anomalies One-Class Generative Adversarial Network One-Class Support Vector Machine Optical Coherence Tomography Outlier Exposure Out of Distribution Pretrained Anomaly Detection Adaptation Patch Distribution Modeling Rotation Network Self-Distillation and Negative Sampling Spectral Domain Optical Coherence Tomography Self-Supervised Learning for Graph Anomaly Detection Simple framework for CL of visual Representations Semantic Pyramid Anomaly Detection Self-Supervised outlier Detection Self-Supervised Learning Self-Supervised Learning in Anomaly Detection Rotation Prediction with Outlier Exposure Student-Teacher Feature Pyramid Matching 0.49
[12] Y. Koizumi, S. Saito, H. Uematsu, Y. Kawachi, and N. Harada, “Unsupervised detection of anomalous sound based on deep learning and the neyman–pearson lemma,” IEEE/ACM Transactions on Audio, Speech, and Language Processing, vol. [12]小泉,S.斎藤,H.上松,Y.河内,N.原田,「深層学習とニーマン-ピアソン補題に基づく異常音の教師なし検出」IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 0.76
27, no. 1, pp. 212–224, 2018. 27巻1頁、212-224頁、2018年。 0.52
[13] K. Golmohammadi and O. R. Zaiane, “Time series contextual anomaly detection for detecting market manipulation in stock market,” in 2015 IEEE international conference on data science and advanced analytics (DSAA). 2015年のIEEE International Conference on Data Science and Advanced Analytics (DSAA)で、K. GolmohammadiとO. R. Zaianeは、“Time series contextual anomaly detection for detect Market Operation in Stock Market”と題している。 0.80
IEEE, 2015, pp. 1–10. ieee、2015年、p.1-10。 0.35
[14] W. D. Fisher, T. K. Camp, and V. V. Krzhizhanovskaya, “Anomaly de- 14] W. D. Fisher, T. K. Camp, V. V. Krzhizhanovskaya, “Anomaly de-” 0.43
英語(論文から抽出)日本語訳スコア
PREPRINT 16 tection in earth dam and levee passive seismic data using support vector machines and automatic feature selection,” Journal of Computational Science, vol. プレプリント 16 サポートベクターマシンと自動特徴選択を用いた、地球ダム内のテクションと受動的地震データ。
訳抜け防止モード: プレプリント 16 支持ベクターマシンと自動特徴選択を用いた地中ダムのテクションと受動地震データ 計算科学誌(journal of computational science)の略。
0.55
20, pp. 143–153, 2017. 20頁、p.143-153、2017年。 0.62
[15] Y. Wu, Y. Lin, Z. Zhou, D. C. Bolton, J. Liu, and P. Johnson, “Deepdetect: A cascaded region-based densely connected network for seismic event detection,” IEEE Transactions on Geoscience and Remote Sensing, vol. Y.Wu, Y. Lin, Z. Zhou, D. C. Bolton, J. Liu, P. Johnson, “Deepdetect: A cascaded region-based densely connected network for earthquake event detection”, IEEE Transactions on Geoscience and Remote Sensing, vol. 0.43
57, no. 1, pp. 62–75, 2018. 57, No. 1, pp. 62-75, 2018。 0.88
[16] O. Cerri, T. Q. Nguyen, M. Pierini, M. Spiropulu, and J. 16] O. Cerri, T. Q. Nguyen, M. Pierini, M. Spiropulu, J. 0.46
-R. Vlimant, “Variational autoencoders for new physics mining at the large hadron collider,” Journal of High Energy Physics, vol. -R。 journal of high energy physics, vol. “vlimant, “variational autoencoder for new physics mining at the large hadron collisionr”[大ハドロン衝突器の新しい物理マイニングのための可変オートエンコーダー]。
訳抜け防止モード: -R。 大型ハドロン衝突型加速器における新しい物理採掘のための変分オートエンコーダ」 The Journal of High Energy Physics, Vol.
0.59
2019, no. 5, pp. 1–29, 2019. 2019年、no.5、p.1-29、2019。 0.83
[17] Y. A. Kharkov, V. Sotskov, A. Karazeev, E. O. Kiktenko, and A. K. Fedorov, “Revealing quantum chaos with machine learning,” Physical Review B, vol. 17] y. a. kharkov, v. sotskov, a. karazeev, e. o. kiktenko, a. k. fedorov, “revealing quantum chaos with machine learning”, physical review b, vol. ] (英語)
訳抜け防止モード: [17] y. a. kharkov, v. sotskov, a. karazeev, e. o. kiktenko, a.k. fedorov氏, “マシンラーニングによる量子カオスの顕在化” フィジカルレビューb、vol.1。
0.79
101, no. 6, p. 064406, 2020. 101, no. 6, p. 064406, 2020。 0.90
[18] M. Henrion, D. J. Mortlock, D. J. Hand, and A. Gandy, “Classification and anomaly detection for astronomical survey data,” in Astrostatistical challenges for the new astronomy. M. Henrion, D. J. Mortlock, D. J. Hand, A. Gandy, “Classification and Anomaly detection for Astronomical Survey data”は、天文学における天文学上の課題である。 0.85
Springer, 2013, pp. 149–184. 2013年、p.149-184。 0.50
[19] E. Reyes and P. A. Est´evez, “Transformation based deep anomaly detection in astronomical images,” in 2020 International Joint Conference on Neural Networks (IJCNN). 19] e. reyes, p. a. est ́evez, “transformation based deep anomaly detection in astronomical images” in 2020 international joint conference on neural networks (ijcnn)
訳抜け防止モード: [19 ]E. Reyes と P. A. Est ́evez, “変換に基づく天体画像の深部異常検出” 2020年、IJCNN(International Joint Conference on Neural Networks)に参加。
0.78
IEEE, 2020, pp. 1–8. 鈴木、2020年、p.1-8。 0.36
[20] S. Latif, M. Usman, R. Rana, and J. Qadir, “Phonocardiographic sensing using deep learning for abnormal heartbeat detection,” IEEE Sensors Journal, vol. 20] s. latif, m. usman, r. rana, j. qadir, “心拍異常検出にディープラーニングを用いた心エコーセンシング”。
訳抜け防止モード: [20]S. Latif, M. Usman, R. Rana, とJ. Qadir氏は語る。「深層学習による心電図による心臓の異常検出」。 IEEE Sensors Journal, vol 。
0.69
18, no. 22, pp. 9393–9400, 2018. 18, No. 22, pp. 9393-9400, 2018。 0.43
[21] T. Schlegl, P. Seeb¨ock, S. M. Waldstein, G. Langs, and U. SchmidtErfurth, “f-anogan: Fast unsupervised anomaly detection with generative adversarial networks,” Medical image analysis, vol. 21] t. schlegl, p. seeb sock, s. m. waldstein, g. langs, u. schmidterfurth, “f-anogan: fast unsupervised anomaly detection with generative adversarial networks”, medical image analysis, vol.)。 0.42
54, pp. 30–44, 2019. 54, pp. 30-44, 2019。 0.89
[22] P. Seeb¨ock, J. I. Orlando, T. Schlegl, S. M. Waldstein, H. Bogunovi´c, S. Klimscha, G. Langs, and U. Schmidt-Erfurth, “Exploiting epistemic uncertainty of anatomy segmentation for anomaly detection in retinal oct,” IEEE transactions on medical imaging, vol. J.I. Orlando, T. Schlegl, S. M. Waldstein, H. Bogunovi ́c, S. Klimscha, G. Langs, U. Schmidt-Erfurth, “Exploiting epistemic uncertainty of anatomy segmentation for anomaly detection inRetinal oct”, IEEE transaction on medical imaging, Vol.
訳抜け防止モード: J. I. Orlando, T. Schlegl, S. M. Waldstein, H. Bogunovi ́c, S. Klimscha, G. Langs, U. Schmidt - Erfurth 網膜オクトにおける異常検出のための解剖学的セグメンテーションの爆発的不確実性」 IEEEによる医療画像のトランザクション。
0.81
39, no. 1, pp. 87–98, 2019. 39, no. 1, pp. 87-98, 2019。 0.93
[23] S. Min, B. Lee, and S. Yoon, “Deep learning in bioinformatics,” 23] s. min, b. lee, and s. yoon, "deep learning in bioinformatics" 0.38
Briefings in bioinformatics, vol. バイオインフォマティクスの略。 0.33
18, no. 5, pp. 851–869, 2017. 18, No. 5, pp. 851-869, 2017。 0.92
[24] R. Tibshirani and T. Hastie, “Outlier sums for differential gene expres- [24]R. TibshiraniとT. Hastie,「差分遺伝子解釈のアウトリー和」 0.79
sion analysis,” Biostatistics, vol. イオン分析”. biostatistics, vol. 0.73
8, no. 1, pp. 2–8, 2007. 8巻1頁、p.2-8、2007年。 0.54
[25] E. Parzen, “On Estimation of a Probability Density Function and Mode,” The Annals of Mathematical Statistics, vol. [25]E. Parzen, “On Estimation of a Probability Density Function and Mode” The Annals of Mathematical Statistics, vol.
訳抜け防止モード: [25 ]E. Parzen「確率密度関数とモードの推定について」 The Annals of Mathematical Statistics, vol. (英語)
0.86
33, no. 3, pp. 1065 – 1076, 1962. 33, no. 3, pp. 1065 – 1076, 1962。 0.82
[26] B. Sch¨olkopf, R. Williamson, A. Smola, J. Shawe-Taylor, and J. Platt, “Support vector method for novelty detection,” in Proceedings of the 12th International Conference on Neural Information Processing Systems, ser. 第12回神経情報処理システム国際会議(ser)において,[26] b. sch solkopf, r. williamson, a. smola, j. shawe-taylor, j. platt, “ support vector method for novelty detection” が開催された。
訳抜け防止モード: [26 ] B. Sch solkopf, R. Williamson, A. Smola. J. Shawe - Taylor, and J. Platt, “ Support vector method for novelty detection” 第12回ニューラル情報処理システム国際会議に参加して
0.87
NIPS’99. Cambridge, MA, USA: MIT Press, 1999, p. 582–588. NIPS'99。 Cambridge, MA, USA: MIT Press, 1999, pp. 582–588。 0.82
[27] F. T. Liu, K. M. Ting, and Z. F. T. Liu, K. M. Ting, Z. 0.34
-H. Zhou, “Isolation forest,” in 2008 Eighth IEEE International Conference on Data Mining, 2008, pp. 413–422. -h。 zhou, “isolation forest” 2008年8月、ieee international conference on data mining, 2008 pp. 413-422。 0.75
[28] Y. Bengio, A. Courville, and P. Vincent, “Representation learning: A review and new perspectives,” IEEE transactions on pattern analysis and machine intelligence, vol. Y. Bengio, A. Courville, P. Vincent, “Representation Learning: A review and new perspectives”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション。 0.70
35, pp. 1798–1828, 08 2013. 35, pp. 1798–1828, 08 2013。 0.94
[29] M. Sabokrou, M. Fayyaz, M. Fathy, Z. Moayed, and R. Klette, “Deepanomaly: Fully convolutional neural network for fast anomaly detection in crowded scenes,” Computer Vision and Image Understanding, vol. M. Sabokrou, M. Fayyaz, M. Fathy, Z. Moayed, R. Klette, “Deepanomaly: Fully convolutional Neural Network for fast anomaly detection in crowded scene”, Computer Vision and Image Understanding, vol.
訳抜け防止モード: [29 ]m. sabokrou, m. fayyaz, m. fathy. z. moayed, r. klette, and r. klette, “deepanomaly: full convolutional neural network for fast anomaly detection in crowded scene”(英語) コンピュータビジョンと画像理解。
0.78
172, pp. 88–97, 2018. 172, pp. 88-97, 2018年。 0.76
[30] Z. Chen, C. K. Yeo, B. S. Lee, and C. T. Lau, “Autoencoder-based network anomaly detection,” in 2018 Wireless Telecommunications Symposium (WTS), 2018, pp. 1–5. Z. Chen, C. K. Yeo, B. S. Lee, C. T. Lau, “Autoencoder based network anomaly detection” in 2018 Wireless Telecommunications Symposium (WTS), 2018, pp. 1–5。
訳抜け防止モード: [30 ]Z. Chen, C.K. Yeo, B.S. Lee そしてC.T. Lau氏は,“オートエンコーダ – ネットワーク異常検出に基づく”。 2018年無線電気通信シンポジウム(WTS)、2018年、p.1-5。
0.71
[31] T. Schlegl, P. Seeb¨ock, S. M. Waldstein, U. Schmidt-Erfurth, and G. Langs, “Unsupervised anomaly detection with generative adversarial networks to guide marker discovery,” in International conference on information processing in medical imaging. 31] t. schlegl, p. seeb sock, s. m. waldstein, u. schmidt-erfurth, g. langsは、医学画像における情報処理に関する国際会議において、“マーカー発見を導くために、生成的な敵ネットワークと教師なしの異常検出(unsupervised anomaly detection with generative adversarial networks to guide guide marker discovery)”と題した。
訳抜け防止モード: He 31 ] T. Schlegl, P. Seeb sock, S. M. Waldstein. U. Schmidt - Erfurth, G. Langs, “生成的敵ネットワークによる教師なし異常検出” マーカー発見をガイドする」。 医用画像における情報処理に関する国際会議
0.70
Springer, 2017, pp. 146– 157. スプリンガー、2017年、p.146-157。 0.55
[32] H. Hojjati and N. Armanfard, “Dasvdd: Deep autoencoding support 32] h. hojjati と n. armanfard, “dasvdd: deep autoencoding support” 0.41
vector data descriptor for anomaly detection,” in arXiv, 2021. とarXiv, 2021で述べている。 0.20
[33] L. Ruff, R. Vandermeulen, N. Goernitz, L. Deecke, S. A. Siddiqui, A. Binder, E. M¨uller, and M. Kloft, “Deep one-class classification,” in International conference on machine learning. 機械学習国際会議において,[33] l. ruff, r. vandermeulen, n. goernitz, l. deecke, s. a. siddiqui, a. binder, e. m suller, m. kloft, “deep one-class classification” が開催された。
訳抜け防止モード: [33 ] L. Ruff, R. Vandermeulen, N. Goernitz L. Deecke, S. A. Siddiqui, A. Binder, E. M suller そしてM. Kloft氏は,“Deep one - class classification, ”と題して,機械学習に関する国際会議を開催した。
0.76
PMLR, 2018, pp. 4393–4402. PMLR, 2018, pp. 4393–4402。 0.43
[34] N. G¨ornitz, M. Kloft, K. Rieck, and U. Brefeld, “Toward supervised anomaly detection,” Journal of Artificial Intelligence Research, vol. Journal of Artificial Intelligence Research, vol.[34] N. G ショルニッツ、M. Kloft、K. Rieck、U. Brefeldは、次のように述べている。 0.77
46, pp. 235–262, 2013. 46, pp. 235-262, 2013年。 0.78
[35] K. He, H. Fan, Y. Wu, S. Xie, and R. Girshick, “Momentum contrast for unsupervised visual representation learning,” in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2020, pp. 9729–9738. K. He, H. Fan, Y. Wu, S. Xie, R. Girshick, “Momentum contrast for unsupervised visual representation learning” in Proceedings of the IEEE/CVF conference on computer vision and pattern recognition, 2020, pp. 9729–9738。
訳抜け防止モード: [35 ]K.He,H.Fan,Y.Wu, S. Xie, and R. Girshick, “Momentum contrast for unsupervised visual representation learning, ” in Proceedings of the IEEE / CVF conference on computer vision and pattern recognition。 2020 , pp . 9729–9738 .
0.47
[36] T. Chen, S. Kornblith, M. Norouzi, and G. Hinton, “A simple framework for contrastive learning of visual representations,” in International conference on machine learning. 36] t. chen, s. kornblith, m. norouzi, g. hinton, “a simple framework for contrastive learning of visual representations” in international conference on machine learning” (英語)
訳抜け防止モード: [36 ]T. Chen, S. Kornblith, M. Norouzi, そしてG. Hintonは、“視覚表現の対照的な学習のためのシンプルなフレームワーク”だ。 機械学習に関する国際会議。
0.78
PMLR, 2020, pp. 1597–1607. PMLR, 2020, pp. 1597-1607。 0.82
[37] I. Golan and R. El-Yaniv, “Deep anomaly detection using geometric transformations,” Advances in neural information processing systems, vol. 37] i. golan, r. el-yaniv, “deep anomaly detection using geometric transformations”, ニューラル情報処理システムにおける進歩, vol。 0.84
31, 2018. [38] S. Mohseni, M. Pitale, J. Yadawa, and Z. Wang, “Self-supervised learning for generalizable out-of-distribution detection,” Proceedings of the AAAI Conference on Artificial Intelligence, vol. 31, 2018. aaai conference on artificial intelligence, vol. “38] s. mohseni, m. pitale, j. yadawa, z. wang, “一般化された分散検出のための自己教師付き学習”。 0.56
34, no. 04, pp. 5216–5223, Apr. 2020. 34, No. 04, pp. 5216–5223, Apr. 2020。 0.47
[Online]. Available: https://ojs.aaai.org /index. [オンライン]。 利用可能: https://ojs.aaai.org /index。 0.56
php/AAAI/article/vie w/5966 php/AAAI/article/vie w/5966 0.12
[39] H. Cho, J. Seol, and S. [39]H. Cho,J. Seol,S. 0.41
-g. Lee, “Masked contrastive learning for anomaly detection,” in Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, IJCAI-21, Z. -g。 第30回人工知能国際合同会議(ijcai-21, z)の議事録の中で、lee氏は“異常検出のための対照的な学習”を強調した。
訳抜け防止モード: -g。 第30回人工知能国際合同会議の議事録における「異常検出のための対比学習」について ijcai-21,z。
0.55
-H. Zhou, Intelligence Ed. -h。 インテリジェンス・エド。 0.55
Organization, 8 2021, pp. 1434–1441, main Track. 第8巻 2021, pp. 1434-1441, メイントラック。 0.58
[Online]. Available: https://doi.org/10.2 4963/ijcai.2021/198 [オンライン]。 https://doi.org/10.2 4963/ijcai.2021/198 0.41
Joint Conferences on Artificial International 人工関節の国際会議 国際 0.73
[40] T. Reiss and Y. Hoshen, “Mean-shifted contrastive loss for anomaly 40] t. reiss and y. hoshen, “anomaly に対する平均シフトコントラスト損失 0.75
detection,” arXiv preprint arXiv:2106.03844, 2021. arXiv preprint arXiv:2106.03844, 2021。 0.43
[41] J. Cho, I. Kang, and J. Park, “Self-supervised 3d out-of-distribution detection via pseudoanomaly generation,” in International Conference on Medical Image Computing and Computer-Assisted Intervention. 医療画像コンピューティングとコンピュータ支援による介入に関する国際会議において,[41]j. cho, i. kang, j. park, “疑似異常発生による自己教師付き3dアウトオブ・ディストリビューション検出” が開催された。 0.59
Springer, 2021, pp. 95–103. springer, 2021, pp. 95–103。 0.79
[42] J. Tack, S. Mo, J. Jeong, and J. Shin, “Csi: Novelty detection via contrastive learning on distributionally shifted instances,” Advances in neural information processing systems, vol. 42] j. tack, s. mo, j. jeong, j. shin, “csi: novelty detection via contrastive learning on distributionally shift instance” ニューラル情報処理システムにおける進歩。
訳抜け防止モード: [42 ] J. Tack, S. Mo, J. Jeong, そしてJ. Shinは,「Csi : 分布にシフトしたインスタンスの対照的な学習による新規性検出」 ニューラル情報処理システムの進歩
0.87
33, pp. 11 839–11 852, 2020. 33, pp. 11 839–11 852, 2020. 0.50
[43] R. Chalapathy and S. Chawla, “Deep learning for anomaly detection: A survey,” 2019. 43] R. Chalapathy, S. Chawla, “Deep Learning for Anomaly Detection: A survey” 2019。 0.36
[Online]. Available: https://arxiv.org/ab s/1901.03407 [44] G. Pang, C. Shen, L. Cao, and A. V. D. Hengel, “Deep learning for anomaly detection: A review,” ACM Comput. [オンライン]。 利用可能: https://arxiv.org/ab s/1901.03407 [44] G. Pang, C. Shen, L. Cao, A. V. D. Hengel, “Deep Learning for Anomaly detection: A review”, ACM Comput。 0.52
Surv. , vol. 54, no. 2, mar 2021. サーヴ。 ヴォル。 54, No. 2, Mar 2021. 0.39
[Online]. Available: https://doi.org/10.1 145/3439950 [オンライン]。 https://doi.org/10.1 145/3439950 0.44
[45] L. Ruff, J. R. Kauffmann, R. A. Vandermeulen, G. Montavon, W. Samek, M. Kloft, T. G. Dietterich, and K. [45] L. Ruff, J. R. Kauffmann, R. A. Vandermeulen, G. Montavon, W. Samek, M. Kloft, T. G. Dietterich, K。 0.44
-R. M¨uller, “A unifying review of deep and shallow anomaly detection,” Proceedings of the IEEE, 2021. -R。 IEEEが2021年に発表した論文は、「深部および浅部における異常検出の統一的なレビュー」だ。
訳抜け防止モード: -R。 深部および浅部における異常検出の統一的なレビュー」。 IEEE , 2021 の成果。
0.55
[46] V. Hodge and J. Austin, “A survey of outlier detection methodologies,” 46] V. Hodge, J. Austin, “A Survey of Outlier Detection Methodologies” 0.39
Artificial Intelligence Review, vol. 人工知能(AI)の略。 0.45
22, pp. 85–126, 10 2004. 22 pp. 85-126 2004年10月。 0.74
[47] M. Agyemang, K. Barker, and R. Alhajj, “A comprehensive survey of numeric and symbolic outlier mining techniques,” Intell. a comprehensive survey of numeric and symbolic outlier mining techniques”[47] m. agyemang, k. barker, r. alhajj, and r. alhajj. [47]
訳抜け防止モード: [47 ]Agyemang,K. Barker,R. Alhajj 数値的・象徴的なアウトリー・マイニング技術に関する総合的な調査」とIntellは言う。
0.70
Data Anal. , vol. データアナル。 ヴォル。 0.47
10, pp. 521–538, 11 2006. 第10巻 521-538、2006年11月。 0.34
[48] F. Di Mattia, P. Galeone, M. De Simoni, and E. Ghelfi, “A survey on gans for anomaly detection,” 2019. F. Di Mattia, P. Galeone, M. De Simoni, E. Ghelfi, “A survey on gans for anomaly detection”. 2019年。
訳抜け防止モード: 48] f. di mattia, p. galeone, m. de simoni, そしてghelfiは、“gans for anomaly detection”2019年だ。
0.60
[Online]. Available: https://arxiv.org/ab s/1906.11632 [オンライン]。 利用可能:https://arxiv.org/a bs/1906.11632 0.51
[49] X. Xia, X. Pan, N. Li, X. He, L. Ma, X. Zhang, and N. Ding, “Gan-based anomaly detection: A review,” Neurocomputing, 2022. 49] X. Xia, X. Pan, N. Li, X. He, L. Ma, X. Zhang, N. Ding, “Gan-based anomaly detection: A review”, Neurocomputing, 2022。
訳抜け防止モード: [49 ]X. Xia, X. Pan, N. Li, X. He, L. Ma, X. Zhang, N. Ding ガンによる異常検出 : 神経計算, 2022年
0.77
[Online]. Available: https://www.scienced irect.com/science/ar ticle/pii/ S0925231221019482 [オンライン]。 利用可能: https://www.scienced irect.com/science/ar ticle/pii/ S09252312210 19482 0.50
[50] M. E. Villa-Perez, M. A. Alvarez-Carmona, O. Loyola-Gonzalez, M. A. Medina-Perez, J. C. Velazco-Rossell, and K. M. E. Villa-Perez, M. A. Alvarez-Carmona, O. Loyola-Gonzalez, M. A. Medina-Perez, J. C. Velazco-Rossell, K. 0.36
-K. R. Choo, “Semisupervised anomaly detection algorithms: A comparative summary and future research directions,” Knowledge-Based Systems, vol. -K。 R. Choo, “Semisupervised anomaly detection algorithm: A comparative summary and future research direction”, Knowledge-Based Systems, vol。
訳抜け防止モード: -K。 R. Choo「半教師付き異常検出アルゴリズム : 比較概要と今後の研究方向」 知識 - システムに基づくシステム。
0.58
218, p. 106878, 2021. 218, p. 106878, 2021。 0.91
[Online]. Available: https://www.scienced irect.com/ science/article/pii/ S0950705121001416 [オンライン]。 利用可能: https://www.scienced irect.com/ science/article/pii/ S0950705121001416 0.51
[51] P. Bergmann, M. Fauser, D. Sattlegger, and C. Steger, “Mvtec ad — a comprehensive real-world dataset for unsupervised anomaly detection,” in 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2019, pp. 9584–9592. [51] p. bergmann, m. fauser, d. sattlegger, c. steger, “mvtec ad — a comprehensive real-world dataset for unsupervised anomaly detection” 2019 ieee/cvf conference on computer vision and pattern recognition (cvpr), 2019, pp. 9584–9592 で発表された。
訳抜け防止モード: P. Bergmann, M. Fauser, D. Sattlegger, そしてC. Stegerは、“Mvtecのアドは、教師なしの異常検出のための総合的なリアルな世界データセットだ。 2019年、IEEE / CVF Conference on Computer Vision and Pattern Recognition (CVPR) に参加。 2019 , pp . 9584–9592 .
0.68
[52] L. Ruff, R. A. Vandermeulen, N. G¨ornitz, A. Binder, E. M¨uller, K.R. M¨uller, and M. Kloft, “Deep semi-supervised anomaly detection,” arXiv preprint arXiv:1906.02694, 2019. [52] L. Ruff, R. A. Vandermeulen, N. G シュルニッツ, A. Binder, E. M シュラー, K.R. M シュラー, M. Kloft, “Deep semi-supervised anomaly detection” arXiv preprint arXiv:1906.02694, 2019. 0.79
[53] E. Min, J. Long, Q. Liu, J. Cui, Z. Cai, and J. Ma, “Su-ids: A semi-supervised and unsupervised framework for network intrusion detection,” in International Conference on Cloud Computing and Security. [53] e. min, j. long, q. liu, j. cui, z. cai, j. ma, “su-ids: a semi-supervised and unsupervised framework for network intrusion detection” は、クラウドコンピューティングとセキュリティに関する国際カンファレンスで発表された。
訳抜け防止モード: 53] e. min, j. long, q. liu, j. cui, z. cai, j. ma, "su - ids : a semi - supervised and unsupervised framework for network intrusion detection" クラウドコンピューティングとセキュリティに関する国際会議において
0.82
Springer, 2018, pp. 322–334. スプリンガー、2018年、p.322-334。 0.45
[54] B. R. Kiran, D. M. Thomas, and R. Parakkal, “An overview of deep learning based methods for unsupervised and semi-supervised anomaly detection in videos,” Journal of Imaging, vol. Journal of Imaging, vol.[54] B. R. Kiran, D. M. Thomas, R. Parakkal, “ビデオにおける教師なしおよび半教師なしの異常検出のためのディープラーニングに基づく方法の概要”。 0.74
4, no. 2, p. 36, 2018. 4, No. 2, pp. 36, 2018 0.38
[55] R. Feinman, R. R. Curtin, S. Shintre, and A. B. Gardner, “Detecting adversarial samples from artifacts,” arXiv preprint arXiv:1703.00410, 2017. R. Feinman, R. R. Curtin, S. Shintre, A. B. Gardner, “Detecting adversarial samples from artifacts, arXiv preprint arXiv:1703.00410, 2017”.
訳抜け防止モード: [55 ] R. Feinman, R. R. Curtin, S. Shintre, A・B・ガードナーは「人工物から敵のサンプルを検出する」と述べた。 arXiv preprint arXiv:1703.00410, 2017。
0.73
[56] K. Lee, K. Lee, H. Lee, and J. Shin, “A simple unified framework for detecting out-of-distribution samples and adversarial attacks,” Advances in neural information processing systems, vol. K. Lee, K. Lee, H. Lee, J. Shinは、“配布外サンプルと敵攻撃を検出するためのシンプルな統一されたフレームワーク”だ。
訳抜け防止モード: 56 ] K. Lee, K. Lee, H. Lee そしてJ. Shin氏は,“配布サンプルと敵攻撃を検出する,シンプルな統合されたフレームワーク”だ,と述べている。 ニューラル情報処理システムの進歩
0.76
31, 2018. [57] V. Jumutc and J. A. Suykens, “Multi-class supervised novelty detection,” IEEE transactions on pattern analysis and machine intelligence, vol. 31, 2018. V. Jumutc and J. A. Suykens, “Multi class supervised novelty detection”, IEEEのパターン分析とマシンインテリジェンスに関するトランザクション。
訳抜け防止モード: 31, 2018. 57 ] V. Jumutc, J. A. Suykens, “Multi-class supervised novelty detection” IEEEによるパターン解析とマシンインテリジェンスに関するトランザクション。
0.64
36, no. 12, pp. 2510–2523, 2014. 36, no. 12 pp. 2510-2523, 2014年。 0.89
[58] S. Kim, Y. Choi, and M. Lee, “Deep learning with support vector data 58]s. kim, y. choi, m. lee, “サポートベクタデータを用いたディープラーニング 0.76
description,” Neurocomputing, vol. とneurocomputing, vol。 0.40
165, pp. 111–117, 2015. 165, pp. 111-117, 2015。 0.89
英語(論文から抽出)日本語訳スコア
PREPRINT 17 [59] S. Liu, R. Garrepalli, T. Dietterich, A. Fern, and D. Hendrycks, “Open category detection with PAC guarantees,” in Proceedings of the 35th International Conference on Machine Learning, ser. プレプリント 17 第35回機械学習国際会議において,[59] s. liu, r. garrepalli, t. dietterich, a. fern, d. hendrycks, “open category detection with pac guarantees” が開催された。 0.54
Proceedings of Machine Learning Research, J. Dy and A. Krause, Eds. 機械学習研究の成果 J. Dy と A. Krause, Eds 0.74
, vol. 80. PMLR, 10–15 Jul 2018, pp. 3169–3178. ヴォル。 80. pmlr, 10–15 jul 2018, pp. 3169–3178。 0.46
[Online]. Available: https://proceedings. mlr.press/v80/liu18e .html [オンライン]。 利用可能: https://proceedings. mlr.press/v80/liu18e .html 0.47
[60] S. Vaze, K. Han, A. Vedaldi, and A. Zisserman, “Open-set recognition: A good closed-set classifier is all you need,” 2021. 60] s. vaze, k. han, a. vedaldi, a. zisserman, “open-set recognition: a good closed-set classifier is all you need” 2021年。
訳抜け防止モード: [60 ]S. Vaze, K. Han, A. Vedaldi, そして A. Zisserman 氏は,“オープン - 集合認識 : 良いクローズド - 集合分類器は,必要なすべてです。
0.78
[Online]. Available: https://arxiv.org/ab s/2110.06207 [オンライン]。 利用可能:https://arxiv.org/a bs/2110.06207 0.51
[61] G. Larsson, M. Maire, and G. Shakhnarovich, “Learning representations for automatic colorization,” in European Conference on Computer Vision (ECCV), 2016. [61] g. larsson, m. maire, g. shakhnarovich, “learning representations for automatic colorization” in european conference on computer vision (eccv, 2016)
訳抜け防止モード: [61 ] G. Larsson, M. Maire, G. Shakhnarovich 欧州コンピュータビジョン会議(ECCV)2016における「自動着色のための表現学習」について
0.85
[62] R. D. Hjelm, A. Fedorov, S. Lavoie-Marchildon, K. Grewal, P. Bachman, A. Trischler, “Learning deep representations by mutual information estimation and maximization,” in International Conference on Learning Representations, 2019. 62] r. d. hjelm, a. fedorov, s. lavoie-marchildon, k. grewal, p. bachman, a. trischler, "learning deep representations by mutual information estimation and maximization", in international conference on learning representations, 2019 (英語)
訳抜け防止モード: [62 ] R. D. Hjelm, A. Fedorov, S. Lavoie - Marchildon, K. Grewal, P. Bachman, A. Trischler, “相互情報推定と最大化による深い表現の学習”。 英語) International Conference on Learning Representations, 2019
0.84
[Online]. Available: https://openreview.n et/forum? [オンライン]。 https://openreview.n et/forum? 0.50
id=Bklr3j0cKX id=Bklr3j0cKX 0.15
and Y. Bengio, [63] S. Gidaris, P. Singh, and N. Komodakis, “Unsupervised representation learning by predicting image rotations,” arXiv preprint arXiv:1803.07728, 2018. そしてy.ベンジオ S. Gidaris, P. Singh, N. Komodakis, “Unsupervised representation learning by predicting image rotations, arXiv preprint arXiv:1803.07728, 2018。
訳抜け防止モード: そしてy.ベンジオ [63]S.ギダリス、P.シン、N.コモダキス 画像回転予測による教師なし表現学習, arXiv preprint arXiv:1803.07728, 2018。
0.72
[64] M. Ravanelli, J. Zhong, S. Pascual, P. Swietojanski, J. Monteiro, J. Trmal, and Y. Bengio, “Multi-task self-supervised learning for robust speech recognition,” in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 6989–6993. M. Ravanelli, J. Zhong, S. Pascual, P. Swietojanski, J. Monteiro, J. Trmal, Y. Bengio, “Multi-task self-supervised learning for robust speech recognition” in ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2020, pp. 6989–6993。
訳抜け防止モード: [64 ]M. Ravanelli, J. Zhong, S. Pascual, P. Swietojanski, J. Monteiro, J. Trmal, Y. Bengio マルチタスク・セルフ-頑健な音声認識のための教師付き学習」 ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech ICASSP, 2020, pp. 6989–6993。
0.81
[65] L. Jing and Y. Tian, “Self-supervised visual feature learning with deep neural networks: A survey,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. L.Jing, Y. Tian, “Self-supervised visual feature learning with Deep Neural Network: A survey”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.”。
訳抜け防止モード: [65 ] L. Jing と Y. Tian は,「深層ニューラルネットワークを用いた自己教師付き視覚特徴学習 : 調査」と評した。 IEEE Transactions on Pattern Analysis and Machine Intelligence , vol。
0.83
43, no. 11, pp. 4037–4058, nov 2021. 43, no. 11, pp. 4037–4058, nov 2021。 0.47
[66] S. Azizi, B. Mustafa, F. Ryan, Z. Beaver, J. Freyberg, J. Deaton, A. Loh, A. Karthikesalingam, S. Kornblith, T. Chen, V. Natarajan, and M. Norouzi, “Big self-supervised models advance medical image classification,” in 2021 IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 3458–3468. S. Azizi, B. Mustafa, F. Ryan, Z. Beaver, J. Freyberg, J. Deaton, A. Loh, A. Karthikesalingam, S. Kornblith, T. Chen, V. Natarajan, M. Norouzi, “Big Self-supervised models advance Medical image classification” in 2021 IEEE/CVF International Conference on Computer Vision (ICCV), 2021, pp. 3458–3468。
訳抜け防止モード: [66 ]S. Azizi, B. Mustafa, F. Ryan, Z. Beaver J. Freyberg, J. Deaton, A. Loh, A. Karthikesalingam S. Kornblith, T. Chen, V. Natarajan, M. Norouzi 2021 IEEE / CVF International Conference on Computer Vision (ICCV) における「大規模自己監督型モデルによる医用画像分類の進歩」 2021 , pp . 3458–3468 .
0.89
[67] S. Chopra, R. Hadsell, and Y. LeCun, “Learning a similarity metric discriminatively, with application to face verification,” in 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol. IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05) vol.[67] S. Chopra, R. Hadsell, Y. LeCun, “Learning a similarity metric, with application to face validation” in 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05), vol.
訳抜け防止モード: [67 ]S. Chopra, R. Hadsell, Y. LeCun 「類似度基準を差別的に学習し、応用する」 検証に向き合っています。 2005年、IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05) に参加。
0.82
1, 2005, pp. 539–546 vol. 2005年、p.539-546。 0.64
1. [68] F. Schroff, D. Kalenichenko, and J. Philbin, “Facenet: A unified embedding for face recognition and clustering,” in 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015, pp. 815–823. 1. F. Schroff, D. Kalenichenko, J. Philbin, “Facenet: A unified embeddedding for face recognition and clustering” in 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2015 pp. 815–823。
訳抜け防止モード: 1. [68 ]F. Schroff、D. Kalenichenko、J. Philbin 顔ネット : 顔認識とクラスタリングのための統合埋め込み」 2015年IEEE Conference on Computer Vision and Pattern Recognition (CVPR)に参加して 2015 , pp . 815–823 .
0.64
[69] L. Weng and J. W. Kim, “Tutorial: Self-supervised learning,” in Advances in Neural Information Processing Systems, A. Canziani and E. Grant, Eds. L. Weng, J. W. Kim, “Tutorial: Self-supervised learning” in Advances in Neural Information Processing Systems, A. Canziani and E. Grant, Eds。
訳抜け防止モード: [69 ]L.W.キムとJ.W.キムの「チュートリアル : 自己指導型学習」 In Advances in Neural Information Processing Systems, A. Canziani and E. Grant, Eds
0.78
, 2021. [Online]. , 2021. [オンライン]。 0.54
Available: https://nips.cc/virt ual/2021/ tutorial/21895 利用可能: https://nips.cc/virt ual/2021/ tutorial/21895 0.41
[70] M. Sabokrou, M. Khalooei, and E. Adeli, “Self-supervised representation learning via neighborhood-relatio nal encoding,” in Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), October 2019. 70] m. sabokrou, m. khalooei, e. adeli, “self-supervised representation learning via neighborhood-relatio nal encoding” は、2019年10月のieee/cvf international conference on computer vision (iccv) で発表された。
訳抜け防止モード: [70 ]Sabokrou,M.Khalooei, E.Adeli 『地区による自己指導型表現学習 - 関係符号化』 in Proceedings of the IEEE / CVF International Conference on Computer Vision (ICCV) 2019年10月。
0.72
[71] X. Zhang, J. Mu, X. Zhang, H. Liu, L. Zong, and Y. Li, “Deep anomaly detection with self-supervised learning and adversarial training,” Pattern Recognition, vol. 71] x. zhang, j. mu, x. zhang, h. liu, l. zong, y. li, “自己教師付き学習と敵意トレーニングによる深い異常検出”。 0.61
121, p. 108234, 2022. 121, p. 108234, 2022。 0.92
[Online]. Available: https://www.scienced irect.com/science/ar ticle/pii/S003132032 1004155 [72] K. Sohn, C. [オンライン]。 https://www.scienced irect.com/science/ar ticle/pii/S003132032 1004155 [72] K. Sohn, C。 0.47
-L. Li, J. Yoon, M. Jin, and T. Pfister, “Learning and evaluating representations for deep one-class classification,” arXiv preprint arXiv:2011.02578, 2020. -L。 Li, J. Yoon, M. Jin, T. Pfister, “Learning and Evaluation representations for deep one-class classification” arXiv preprint arXiv:2011.02578, 2020.
訳抜け防止モード: -L。 Li, J. Yoon, M. Jin, T. Pfister 『ディープワンの表現の学習と評価-クラス分類』 arXiv preprint arXiv:2011.02578 , 2020
0.64
[73] C. -L. Li, K. Sohn, J. Yoon, and T. Pfister, “Cutpaste: Self-supervised learning for anomaly detection and localization,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021, pp. 9664–9674. 73]C。 -L。 Li, K. Sohn, J. Yoon, T. Pfister, “Cutpaste: Self-supervised learning for anomaly detection and localization” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021, pp. 9664–9674。
訳抜け防止モード: 73]C。 -L。 Li, K. Sohn, J. Yoon, T. Pfister カットペースト : 異常検出と局所化のための教師付き学習」 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition , 2021 , pp . 9664–9674 。
0.52
[74] D. Hendrycks, M. Mazeika, S. Kadavath, and D. Song, “Using selfsupervised learning can improve model robustness and uncertainty,” Advances in Neural Information Processing Systems, vol. D. Hendrycks, M. Mazeika, S. Kadavath, D. Song, “自己教師型学習は、モデルの堅牢性と不確実性を改善する。 0.52
32, 2019. [76] V. Sehwag, M. Chiang, 32, 2019. [76] V. Sehwag, M. Chiang, 0.46
[75] M. Salehi, A. Eftekhar, N. Sadjadi, M. H. Rohban, and H. R. Rabiee, “Puzzle-ae: Novelty detection in images through solving puzzles,” 2020. M. Salehi, A. Eftekhar, N. Sadjadi, M. H. Rohban, H. R. Rabiee, “Puzzle-ae: Novelty detection in image through solve puzzles”. 2020年。 0.47
“{SSD}: A unified framework for self-supervised outlier detection,” in International Conference on Learning Representations, 2021. {SSD}: 2021年、国際学習表現会議において、自己教師付きアウトリア検出のための統一されたフレームワーク。
訳抜け防止モード: { SSD } : 自己監視型アウトリア検出のための統合フレームワーク”。 国際学習表現会議(2021年)に参加。
0.74
[Online]. Available: https://openreview.n et/forum? [オンライン]。 https://openreview.n et/forum? 0.50
id=v5gjXpmR8J id=v5gjXpmR8J 0.15
and P. Mittal, そしてP. Mittal。 0.74
[77] J. Zhang, K. Saleeby, T. Feldhausen, S. Bi, A. Plotkowski, and D. Womble, “Self-supervised anomaly detection via neural autoregressive flows with active learning,” in NeurIPS 2021 Workshop on Deep Generative Models and Downstream Applications, 2021. J. Zhang, K. Saleeby, T. Feldhausen, S. Bi, A. Plotkowski, D. Womble, “Self-supervised anomaly detection via neural autoregressive flow with active learning” in NeurIPS 2021 Workshop on Deep Generative Models and Downstream Applications, 2021。
訳抜け防止モード: [77 ] J. Zhang, K. Saleeby, T. Feldhausen, S. Bi, A. Plotkowski, D. Womble, “Self - 能動的学習を伴う神経自己回帰流による異常検出を監督する”。 NeurIPS 2021 Workshop on Deep Generative Models and Downstream Applications, 2021
0.87
[Online]. Available: https://openreview.n et/forum? [オンライン]。 https://openreview.n et/forum? 0.50
id=LdWEo5mri6 id=LdWEo5mri6 0.17
[78] J. Winkens, R. Bunel, A. G. Roy, R. Stanforth, V. Natarajan, J. R. Ledsam, P. MacWilliams, P. Kohli, A. Karthikesalingam, S. Kohl, T. Cemgil, S. M. A. Eslami, and O. Ronneberger, “Contrastive training J. Winkens, R. Bunel, A. G. Roy, R. Stanforth, V. Natarajan, J. R. Ledsam, P. MacWilliams, P. Kohli, A. Karthikesalingam, S. Kohl, T. Cemgil, S. M. A. Eslami, O. Ronneberger, “Contrastive Training” 0.44
for improved out-of-distribution detection,” 2020. アウトオブディストリビューション検出の改善のために”、2020年。 0.50
[Online]. Available: https://arxiv.org/ab s/2007.05566 [オンライン]。 利用可能:https://arxiv.org/a bs/2007.05566 0.51
[79] S. A. Field, A. J. Tyre, N. Jonz´en, J. R. Rhodes, and H. P. Possingham, “Minimizing the cost of environmental management decisions by optimizing statistical thresholds,” Ecology Letters, vol. 79] s. a. field, a. j. tyre, n. jonz ́en, j. r. rhodes, h. p. possingham, “統計的しきい値を最適化することで環境管理の意思決定のコストを最小化する”。 0.70
7, no. 8, pp. 669–675, 2004. 7, 8, pp. 669-675, 2004。 0.76
[80] T. Fawcett, “An introduction to roc analysis,” Pattern Recogn. パターンrecogn.[80] t. fawcett, “an introduction to roc analysis”(roc分析入門)。 0.76
jun 2006. [Online]. 2006年1月 [オンライン]。 0.68
Available: Lett. 利用可能。 Lett! 0.40
, vol. 27, no. 8, p. 861–874, https://doi.org/10.1 016/j.patrec.2005.10 .010 ヴォル。 27 no. 861–874, https://doi.org/10.1 016/j.patrec.2005.10 .010 0.27
[81] J. Xu, Y. Zheng, Y. Mao, R. Wang, and W. [81] j. xu, y. zheng, y. mao, r. wang, w. 0.36
-S. Zheng, “Anomaly detection on electroencephalograp hy with self-supervised learning,” in 2020 IEEE International Conference on Bioinformatics and Biomedicine (BIBM). -S。 2020年にIEEE International Conference on Bioinformatics and Biomedicine (BIBM)で発表された。
訳抜け防止モード: -S。 Zheng, “自己教師付き学習による脳波異常検出” 2020年、IEEE International Conference on Bioinformatics and Biomedicine (BIBM) に参加。
0.62
IEEE, 2020, pp. 363–368. IEEE, 2020, pp. 363-368。 0.86
[82] B. Bozorgtabar, D. Mahapatra, G. Vray, and J. [82]B. Bozorgtabar, D. Mahapatra, G. Vray, J。 0.85
-P. Thiran, “Salad: Selfsupervised aggregation learning for anomaly detection on x-rays,” in International Conference on Medical Image Computing and ComputerAssisted Intervention. -P。 Thiran, “Salad: Selfsupervised aggregate learning for anomaly detection on x-rays”. International Conference on Medical Image Computing and ComputerAssisted Intervention. (英語)
訳抜け防止モード: -P。 Thiran, “ Salad: Selfsupervised aggregate learning for Anomaly detection on x-rays” 医用画像コンピューティングとコンピュータ支援インターベンションに関する国際会議」に参加して
0.59
Springer, 2020, pp. 468–478. スプリンガー、2020年、p.468-478。 0.58
[83] H. Jiang, W. Y. B. Lim, J. S. Ng, Y. Wang, Y. Chi, and C. Miao, “Towards parkinson’s disease prognosis using self-supervised learning and anomaly detection,” in ICASSP 2021-2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). icassp 2021-2021 ieee international conference on acoustics, speech and signal processing (icassp)において、[83] h. jiang, w. y. b. lim, j. s. ng, y. wang, y. chi, c. miaoは、自己監督学習と異常検出を用いてパーキンソン病の予後を予測している。 0.64
IEEE, 2021, pp. 3960–3964. ieee, 2021, pp. 3960-3964。 0.69
[84] P. Burlina, W. Paul, T. A. Liu, and N. M. Bressler, “Detecting anomalies in retinal diseases using generative, discriminative, and self-supervised deep learning,” JAMA ophthalmology, vol. [84]P. Burlina, W. Paul, T. A. Liu, N. M. Bressler, “生成性、識別性、自己教師型ディープラーニングによる網膜疾患の異常の検出” JAMA眼科, Vol. 0.83
140, no. 2, pp. 185–189, 2022. 140, No. 2, pp. 185–189, 2022。 0.96
[85] A. R. Venkatakrishnan, S. T. Kim, R. Eisawy, F. Pfister, and N. Navab, “Self-supervised out-of-distribution detection in brain ct scans,” arXiv preprint arXiv:2011.05428, 2020. [85] a. r. venkatakrishnan, s. t. kim, r. eisawy, f. pfister, n. navab, “脳ctスキャンで自己監視された分布外検出” arxiv preprint arxiv:2011.05428, 2020。 0.65
[86] A. Spahr, B. Bozorgtabar, and J. [86]A. Spahr, B. Bozorgtabar, J. 0.43
-P. Thiran, “Self-taught semisupervised anomaly detection on upper limb x-rays,” in 2021 IEEE 18th International Symposium on Biomedical Imaging (ISBI). -P。 ティランは、2021年IEEE 18th International Symposium on Biomedical Imaging (ISBI)で「上肢のX線を自学で半監督する異常検出」を行った。 0.54
IEEE, 2021, pp. 1632–1636. IEEE, 2021, pp. 1632–1636。 0.92
[87] H. Zhao, Y. Li, N. He, K. Ma, L. Fang, H. Li, and Y. Zheng, “Anomaly detection for medical images using self-supervised and translationconsisten t features,” IEEE Transactions on Medical Imaging, vol. ieee transactions on medical imaging, vol. “87] h. zhao, y. li, n. he, k. ma, l. fang, h. li, y. zhengは、“自己教師と翻訳一貫性のある機能による医療画像の異常検出”と言っている。
訳抜け防止モード: [87]H.Zhao,Y.Li,N.He, K. Ma, L. Fang, H. Li, Y. Zheng 「自己監督・翻訳一貫性機能を用いた医用画像の異常検出」 IEEE Transactions on Medical Imaging, vol.
0.90
40, no. 12, pp. 3641–3651, 2021. 40, No. 12, pp. 3641–3651, 2021。 0.48
[88] S. Park, A. Balint, and H. Hwang, “Self-supervised medical out-ofdistribution using u-net vision transformers,” in International Conference on Medical Image Computing and Computer-Assisted Intervention. The International Conference on Medical Image Computing and Computer-Assisted Intervention.[88] S. Park, A. Balint, and H. Hwang, “Self-supervised medical out-ofdistriion using u-net vision transformer”。
訳抜け防止モード: [88 ]S. Park, A. Balint, H. Hwang 「u-ネット・ビジョン・トランスフォーマーを用いた自己監督型医療アウトの流通」 International Conference on Medical Image Computing and Computer - Assisted Intervention に参加して
0.69
Springer, 2021, pp. 104–110. スプリンガー, 2021, pp. 104-110。 0.67
[89] X. Zhang, W. Xie, C. Huang, Y. Zhang, and Y. Wang, “Self-supervised tumor segmentation through layer decomposition,” arXiv preprint arXiv:2109.03230, 2021. X. Zhang, W. Xie, C. Huang, Y. Zhang, Y. Wang, “Self-supervised tumor segmentation through layer decomposition” arXiv preprint arXiv:2109.03230, 2021。
訳抜け防止モード: 89] x. zhang, w. xie, c. huang, y. zhang, y. wang, “self-supervised tumor segmentation through layer decomposition” arxiv プレプリント arxiv:2109.03230 、2021 。
0.67
[90] S. Hansen, S. Gautam, R. Jenssen, and M. Kampffmeyer, “Anomaly detection-inspired few-shot medical image segmentation through selfsupervision with supervoxels,” Medical Image Analysis, vol. Anomaly detection-inspired few-shot medical image segmentation through selfsupervision with Supervoxel, Medical Image Analysis, vol.[90] S. Hansen, S. Gautam, R. Jenssen, M. Kampffmeyer。
訳抜け防止モード: [90 ]S. Hansen, S. Gautam, R. Jenssen, M. Kampffmeyer氏はこう語る。「異常検出は、スーパーボクセルを使った自己スーパービジョンを通じて、医療画像のセグメンテーションにインスピレーションを与えました」。 医用画像解析。
0.57
78, p. 102385, 2022. 78,p.102385,2022。 0.73
[91] N. Bahavan, N. Suman, S. Cader, R. Ranganayake, D. Seneviratne, V. Maddumage, G. Seneviratne, Y. Supun, I. Wijesiri, S. Dehigaspitiya et al , “Anomaly detection using deep reconstruction and forecasting for autonomous systems,” arXiv preprint arXiv:2006.14556, 2020. [91] n. bahavan, n. suman, s. cader, r. ranganayake, d. seneviratne, v. maddumage, g. seneviratne, y. supun, i. wijesiri, s. dehigaspitiya et al, "anomaly detection using deep reconstruction and forecasting for autonomous systems", arxiv preprint arxiv:2006.14556, 2020
訳抜け防止モード: [91 ] N. Bahavan, N. Suman, S. Cader, R. Ranganayake, D. Seneviratne, V. Maddumage, G. Seneviratne Y. Supun, I. Wijesiri, S. Dehigaspitiya et al, “異常検出” 自律システムの深い再構築と予測を使っています。 arXiv preprint arXiv:2006.14556 , 2020
0.86
[92] W. Hou, X. Tao, and D. Xu, “A self-supervised cnn for particle inspection on optical element,” IEEE Transactions on Instrumentation and Measurement, vol. 92]W. Hou, X. Tao, D. Xu, “A self-supervised cnn for Particle inspection on Optical element, IEEE Transactions on Instrumentation and Measurement, vol。
訳抜け防止モード: [92 ]W. Hou, X. Tao, D. Xu 「光学素子の粒子検査のための自己監督型cnn」 IEEE Transactions on Instrumentation and Measurement , vol.
0.82
70, pp. 1–12, 2021. 70, pp. 1-12, 2021。 0.87
[93] M. Liu, Z. Xu, and Q. Xu, “Deepfib: Self-imputation for time series [93]M.Liu,Z.Xu,Q.Xu, “Deepfib: Self-imputation for time series” 0.39
anomaly detection,” arXiv preprint arXiv:2112.06247, 2021. arXiv preprint arXiv:2112.06247, 2021。 0.71
[94] K. Jahan, J. P. Umesh, and M. Roth, “Anomaly detection on the rail lines using semantic segmentation and self-supervised learning,” in 2021 IEEE Symposium Series on Computational Intelligence (SSCI). K. Jahan, J. P. Umesh, M. Roth, “Anomaly detection on the rail line using semantic segmentation and self-supervised learning” in 2021 IEEE Symposium Series on Computational Intelligence (SSCI)。
訳抜け防止モード: [94 ]K.Jahan、J.P.Umesh、M.Roth 「意味的セグメンテーションと自己指導型学習を用いた鉄道線路の異常検出」 2021年、IEEE Symposium Series on Computational Intelligence (SSCI) に参加。
0.75
IEEE, 2021, pp. 1–7. 同上、2021年、p.1-7。 0.46
[95] M. Schreyer, T. Sattarov, and D. Borth, “Multi-view contrastive selfsupervised learning of accounting data representations for downstream audit tasks,” arXiv preprint arXiv:2109.11201, 2021. M. Schreyer, T. Sattarov, D. Borth, “Multi-view contrastive selfsupervised learning of accounting data representations for downstream audit task” arXiv preprint arXiv:2109.11201, 2021。
訳抜け防止モード: [95 ] M. Schreyer, T. Sattarov, D. Borth マルチビュー 下流監査業務における会計データ表現の対比学習」 arXiv preprint arXiv:2109.11201 , 2021
0.83
[96] C. Wang, Y. Dou, M. Chen, J. Chen, Z. Liu, and S. Y. Philip, “Deep fraud detection on non-attributed graph,” in 2021 IEEE International Conference on Big Data (Big Data). C. Wang, Y. Dou, M. Chen, J. Chen, Z. Liu, S. Y. Philip, “Deep fraud detection on non-attributed graph” in 2021 IEEE International Conference on Big Data (Big Data)。
訳抜け防止モード: [96 ]C. Wang, Y. Dou, M. Chen, J. Chen, Z. Liu, and S. Y. Philip, “Deep fraud detection on non- attributed graph”。 2021年、IEEE International Conference on Big Data(Big Data)が開催された。
0.83
IEEE, 2021, pp. 5470–5473. ieee, 2021, pp. 5470-5473。 0.67
[97] A. Manolache, F. Brad, and E. Burceanu, “Date: Detecting anomatransformers,” arXiv preprint [97] A. Manolache, F. Brad, E. Burceanu, “Date: Detecting anomatransformers, arXiv preprint 0.44
lies in text via self-supervision of arXiv:2104.05591, 2021. テキストはarxiv:2104.05591, 2021の自己スーパービジョンで書かれている。 0.38
[98] M. Huh, A. Liu, A. Owens, and A. A. Efros, “Fighting fake news: Image splice detection via learned self-consistency,” in Proceedings of the European conference on computer vision (ECCV), 2018, pp. 101– 117. M. Huh, A. Liu, A. Owens, A. A. Efros, “Fighting fake news: Image Splice detection via learned self-consistency” in Proceedings of the European conference on computer vision (ECCV), 2018, pp. 101–117。
訳抜け防止モード: [98 ]M. Huh, A. Liu, A. Owens, とA.A.Efrosは言う。 偽ニュースと戦う ヨーロッパコンピュータビジョン会議(ECCV)における「学習自己による画像スプライス検出」 2018 , pp . 101 – 117 .
0.74
[99] L. Bergman and Y. Hoshen, “Classification-based anomaly detection for general data,” in International Conference on Learning Representations (ICLR), 2020. [99] l. bergman氏とy. hoshen氏は、2020年のiclr(international conference on learning representations)で、“一般データに対する分類に基づく異常検出”について講演した。
訳抜け防止モード: [99 ] L. Bergman, Y. Hoshen, “分類 - 一般的なデータの異常検出に基づく” ICLR(International Conference on Learning Representations)、2020年。
0.86
英語(論文から抽出)日本語訳スコア
PREPRINT 18 [100] C. Chen, Y. Xie, S. Lin, R. Qiao, J. Zhou, X. Tan, Y. Zhang, and L. Ma, “Novelty detection via contrastive learning with negative data augmentation,” in Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, IJCAI-21, Z. プレプリント 18 C. Chen, Y. Xie, S. Lin, R. Qiao, J. Zhou, X. Tan, Y. Zhang, L. Ma, “Novelty detection via contrastive learning with negative data augmentation” in Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, IJCAI-21, Z。
訳抜け防止モード: プレプリント 18 [100 ]C. Chen, Y. Xie, S. Lin, R. Qiao, J. Zhou, X. Tan, Y. Zhang, L. Ma 第30回人工知能国際会議紀要の「負のデータ増強による対照的な学習による新規性検出」 IJCAI-21、Z。
0.57
-H. Zhou, Ed. Intelligence Organization, 8 2021, pp. 606–614, main Track. -h。 周、エド。 インテリジェンス・オーガナイゼーション, 8 2021, pp. 606-614, メイントラック。 0.58
[Online]. Available: https://doi.org/10.2 4963/ijcai.2021/84 [オンライン]。 https://doi.org/10.2 4963/ijcai.2021/84 0.42
Joint Conferences on Artificial International 人工関節の国際会議 国際 0.73
[101] S. Yoa, S. Lee, C. Kim, and H. J. Kim, “Self-supervised learning for anomaly detection with dynamic local augmentation,” IEEE Access, vol. IEEE Access, vol.[101] S. Yoa, S. Lee, C. Kim, H. J. Kim, “動的局所拡張による異常検出のための自己教師付き学習”。 0.84
9, pp. 147 201–147 211, 2021. 9, pp. 147 201–147 211, 2021. 0.50
[102] Y. Wang, C. Qin, R. Wei, Y. Xu, Y. Bai, and Y. Fu, “Sla2p: Self-supervised anomaly detection with adversarial perturbation,” 2021. Y. Wang, C. Qin, R. Wei, Y. Xu, Y. Bai, and Y. Fu, “Sla2p: Self-supervised anomaly detection with adversarial perturbation” 2021年。
訳抜け防止モード: [102 ] Y. Wang, C. Qin, R. Wei, Y. Xu, Y. Bai, Y. Fu, “Sla2p : Self - 対向摂動による教師付き異常検出”, 2021
0.84
[Online]. Available: https://arxiv.org/ab s/2111.12896 [オンライン]。 https://arxiv.org/ab s/2111.12896 0.43
[103] C. Doersch, A. Gupta, and A. A. Efros, “Unsupervised visual representation learning by context prediction,” in Proceedings of the IEEE international conference on computer vision, 2015, pp. 1422–1430. 103] c. doersch, a. gupta, a. a. efros, "unsupervised visual representation learning by context prediction" in the proceedings of the ieee international conference on computer vision, 2015 pp. 1422–1430。
訳抜け防止モード: [103 ]C. Doersch, A. Gupta, A. A. Efros IEEE国際コンピュータビジョン会議における「文脈予測による教師なし視覚表現学習」 2015 , pp . 1422–1430 .
0.74
[104] D. Hendrycks, M. Mazeika, and T. Dietterich, “Deep anomaly detection with outlier exposure,” in International Conference on Learning Representations, 2018. 104] d. hendrycks, m. mazeika, t. dietterich, “deep anomaly detection with outlier exposure” in international conference on learning representations, 2018年。
訳抜け防止モード: [104 ]D.ヘンドリックス、M. Mazeika、T. Dietterich International Conference on Learning Representations, 2018 で, “Deep Anomaly Detection with Outlier exposure, ” と題された。
0.80
[Online]. Available: https://openreview.n et/ forum? [オンライン]。 閲覧: https://openreview.n et/フォーラム? 0.62
id=HyxCxhRcY7 id=HyxCxhRcY7 0.24
[105] H. M. Schl¨uter, J. Tan, B. Hou, and B. Kainz, “Self-supervised out-ofdistribution detection and localization with natural synthetic anomalies (nsa),” arXiv preprint arXiv:2109.15222, 2021. J. Tan, B. Hou, and B. Kainz, “Self-supervised out-ofdistribution detection and localization with natural synthetic anomalies (nsa), arXiv preprint arXiv:2109.15222, 2021”。
訳抜け防止モード: [105 ]H.M.シュルシュター、J. Tan、B. Hou、 そしてB. Kainz氏は,“自然合成異常(nsa)による分布検出と局在化の自己監視”を行った。 arXiv preprint arXiv:2109.15222 , 2021
0.72
[106] Z. Wu, Y. Xiong, S. X. Yu, and D. Lin, “Unsupervised feature learning via non-parametric instance discrimination,” in Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2018. 106] z. wu, y. xiong, s. x. yu, d. lin, “unsupervised feature learning via non-parametric instance discrimination”は、2018年6月のieee conference on computer vision and pattern recognition(cvpr)で発表された。 0.76
[107] P. Mahalanobis, “On the generalised distance in statistics,” in Proceedings of the National Institute of Sciences of India, vol. 107]P. Mahalanobis, “On the generalized distance in statistics” in Proceedings of the National Institute of Sciences of India, vol.
訳抜け防止モード: 107 ] p. mahalanobis, “on the generalized distance in statistics”. インド国立科学研究所 (national institute of sciences of india) の略称。
0.77
2, no. 1, 1936, pp. 49–55. 第2巻、1936年、p.49-55。 0.52
[108] P. Khosla, P. Teterwak, C. Wang, A. Sarna, Y. Tian, P. P. Khosla, P. Teterwak, C. Wang, A. Sarna, Y. Tian, P. 0.42
Isola, A. Maschinot, C. Liu, and D. Krishnan, “Supervised contrastive learning,” in Advances in Neural Information Processing Systems, H. Larochelle, M. Ranzato, R. Hadsell, M. Balcan, and H. Lin, Eds. Isola, A. Maschinot, C. Liu, D. Krishnan, “Supervised contrastive learning” in Advances in Neural Information Processing Systems, H. Larochelle, M. Ranzato, R. Hadsell, M. Balcan, H. Lin, Eds。
訳抜け防止モード: Isola, A. Maschinot, C. Liu, D. Krishnan ニューラル情報処理システムにおける「教師付きコントラスト学習」 H. Larochelle, M. Ranzato, R. Hadsell, M. Balcan そしてH. Lin, Eds。
0.84
, vol. 33. Inc., 2020, pp. 18 661– 18 673. ヴォル。 33. 同上、2020年、p.1861-673。 0.41
[Online]. Available: https://proceedings. neurips.cc/paper/202 0/ file/d89a66c7c80a29b1b dbab0f2a1a94af8-Pape r.pdf [オンライン]。 利用可能: https://proceedings. neurips.cc/paper/202 0/ file/d89a66c7c80a29b 1bdbab0f2a1a94af8-pa per.pdf 0.41
Curran Associates, カーラン・アソシエイツ 0.27
[109] T. Reiss, N. Cohen, L. Bergman, and Y. Hoshen, “Panda: Adapting pretrained features for anomaly detection and segmentation,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021, pp. 2806–2814. 109] T. Reiss, N. Cohen, L. Bergman, Y. Hoshen, “Panda: Adapting Pretrained features for anomaly detection and segmentation” in Proceeds of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2021, pp. 2806–2814。
訳抜け防止モード: [109 ]T. Reiss, N. Cohen, L. Bergman, とHoshen氏は語る。 異常検出とセグメンテーションに事前訓練された機能を適用する”。 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition , 2021 , pp . 2806–2814 。
0.77
[110] A. Krizhevsky, V. Nair, and G. Hinton, “Cifar-10 (canadian institute for advanced research).” [Online]. 110] a. krizhevsky, v. nair, g. hinton, “cifar-10 (canadian institute for advanced research)” [オンライン] 0.39
Available: http://www.cs.toront o. http://www.cs.toront o.com/を参照。 0.40
edu/∼kriz/cifar.html edu (複数形 edus) 0.13
[111] P. Perera, R. Nallapati, and B. Xiang, “Ocgan: One-class novelty detection using gans with constrained latent representations,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 2019. 111] p. perera, r. nallapati, b. xiang, “ocgan: one-class novelty detection using gans with restricteded latent representations” は、2019年6月のieee/cvf conference on computer vision and pattern recognition(cvpr)で発表された。 0.78
[112] S. Goyal, A. Raghunathan, M. Jain, H. V. Simhadri, and P. Jain, “Drocc: Deep robust one-class classification,” in International Conference on Machine Learning. 112] S. Goyal, A. Raghunathan, M. Jain, H. V. Simhadri, P. Jain, “Drocc: Deep robust one-class classification” in International Conference on Machine Learning。
訳抜け防止モード: 112 ]s. goyal, a. raghunathan, m. jain, h. v. simhadri, and p. jain, "drocc : deep robust one - class classification" 機械学習に関する国際会議に出席。
0.83
PMLR, 2020, pp. 3711–3721. PMLR, 2020, pp. 3711-3721。 0.80
[113] J. Song, K. Kong, Y. 113]j.song、k. kong、y 0.55
-I. Park, S. -私。 パーク、s。 0.52
-G. Kim, and S. -J. -G。 キム、S。 -j。 0.53
Kang, “Anoseg: Anomaly segmentation network using self-supervised learning,” arXiv preprint arXiv:2110.03396, 2021. Kang, “Anoseg: Anomaly segmentation network using self-supervised learning”, arXiv preprint arXiv:2110.03396, 2021。 0.45
[114] C. -C. [114]C。 -C。 0.39
Tsai, T. -H. Wu, and S. T、T。 -h。 WU, S。 0.53
-H. Lai, “Multi-scale patch-based representation learning for image anomaly detection and segmentation,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2022, pp. 3992–4000. -h。 Lai, “Multi-scale patch-based representation learning for image anomaly detection and segmentation” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2022, pp. 3992–4000。
訳抜け防止モード: -h。 Lai, “マルチスケールパッチ-画像異常検出とセグメンテーションのための表現学習” In Proceedings of the IEEE / CVF Winter Conference on Applications of Computer Vision 2022 , pp . 3992–4000 .
0.83
[115] D. Kim, D. Jeong, H. Kim, K. Chong, S. Kim, and H. Cho, “Spatial contrastive learning for anomaly detection and localization,” IEEE Access, vol. D. Kim, D. Jeong, H. Kim, K. Chong, S. Kim, H. Cho, “Spatial contrastive learning for anomaly detection and localization”, IEEE Access, vol.
訳抜け防止モード: [115 ]D. Kim, D. Jeong, H. Kim, K. Chong, S. Kim, H. Cho, “空間的コントラスト学習による異常検出と局所化”。 IEEE Access , vol。
0.88
10, pp. 17 366–17 376, 2022. 10, pp. 17 366–17 376, 2022. 0.50
[116] D. M. Tax and R. P. Duin, “Support vector data description,” Machine [116]D.M. TaxとR.P. Duin, “Support vector data description”, Machine 0.47
learning, vol. 54, no. 1, pp. 45–66, 2004. 学び、Vol. 54, no. 1, pp. 45-66, 2004。 0.74
[117] J. Yi and S. Yoon, “Patch svdd: Patch-level svdd for anomaly detection and segmentation,” in Proceedings of the Asian Conference on Computer Vision, 2020. 117] j. yi, s. yoon, “patch svdd: patch-level svdd for anomaly detection and segmentation” in the proceedings of the asian conference on computer vision, 2020。
訳抜け防止モード: [117 ] J. Yi と S. Yoon, “Patch svdd : Patch - Level svdd for anomaly detection and segmentation” アジアコンピュータビジョン会議(2020年)に参加して
0.84
[118] Y. Chen, Y. Tian, G. Pang, and G. Carneiro, “Unsupervised anomaly detection with multi-scale interpolated gaussian descriptors,” arXiv preprint arXiv:2101.10043, vol. Y. Chen, Y. Tian, G. Pang, G. Carneiro, “Unsupervised anomaly detection with multi-scale interpolated Gaussian descriptors, arXiv preprint arXiv:2101.10043, vol。
訳抜け防止モード: [118 ]Y. Chen,Y. Tian,G.Pang, とG. Carneiro氏は述べている。 arXiv preprint arXiv:2101.10043 , vol 。
0.65
2, 2021. [119] S. Venkataramanan, K. 2, 2021. [119]S. Venkataramanan, K. 0.44
-C. Peng, R. V. Singh, and A. Mahalanobis, “Attention guided anomaly localization in images,” in European Conference on Computer Vision. -C。 Peng, R. V. Singh, and A. Mahalanobis, “Attention guideed anomaly localization in image”は、European Conference on Computer Visionで発表された。 0.61
Springer, 2020, pp. 485–503. 春田、2020年、p.485-503。 0.57
[120] Y. Fei, C. Huang, C. Jinkun, M. Li, Y. Zhang, and C. Lu, “Attribute restoration framework for anomaly detection,” IEEE Transactions on Multimedia, 2020. He120] Y. Fei, C. Huang, C. Jinkun, M. Li, Y. Zhang, C. Lu, “Attribute restoration framework for anomaly detection”, IEEE Transactions on Multimedia, 2020。
訳抜け防止モード: [120 ]y.fei,c.huang,c.jink un m. li, y. zhang, c. lu, "異常検出のための属性復元フレームワーク" ieee transactions on multimedia、2020年。
0.72
[121] N. Cohen and Y. Hoshen, “Sub-image anomaly detection with deep 121] N. Cohen, Y. Hoshen, “ディープによるサブイメージ異常検出” 0.79
pyramid correspondences,” arXiv preprint arXiv:2005.02357, 2020. arXiv preprint arXiv:2005.02357, 2020。 0.38
[122] F. Valerio Massoli, F. Falchi, A. Kantarci, S. Akti, H. Kemal Ekenel, and G. Amato, “Mocca: Multi-layer one-class classification for anomaly detection,” arXiv e-prints, pp. F. Valerio Massoli, F. Falchi, A. Kantarci, S. Akti, H. Kemal Ekenel, G. Amato, “Mocca: Multi-layer one-class classification for anomaly detection” arXiv e-prints, pp。 0.47
arXiv–2012, 2020. ALXiv-2012、2020年。 0.23
[123] P. Liznerski, L. Ruff, R. A. Vandermeulen, B. J. Franks, M. Kloft, and K. 123] P. Liznerski, L. Ruff, R. A. Vandermeulen, B. J. Franks, M. Kloft, K。
訳抜け防止モード: [123 ]P. Liznerski, L. Ruff, R. A. Vandermeulen, B.J.フランクス、M.クロフト、K。
0.78
-R. M¨uller, “Explainable deep one-class classification,” arXiv preprint arXiv:2007.01760, 2020. -R。 のarxivプレプリントarxiv:2007.01760, 2020。 0.33
[124] Y. Shi, J. Yang, and Z. Qi, “Unsupervised anomaly segmentation via deep feature reconstruction,” Neurocomputing, vol. 124] Y. Shi, J. Yang, Z. Qi, “Unsupervised anomaly segmentation via Deep Feature Restructation, Neurocomputing, vol。
訳抜け防止モード: [124 ]Y. Shi, J. Yang, Z. Qi, 深部特徴再構成による非教師的異常セグメンテーション, ニューロコンピュテーション, vol。
0.69
424, pp. 9–22, 2021. 424, pp. 9–22, 2021。 0.92
[125] G. Wang, S. Han, E. Ding, and D. Huang, “Student-teacher feature pyramid matching for unsupervised anomaly detection,” arXiv preprint arXiv:2103.04257, 2021. G. Wang, S. Han, E. Ding, D. Huang, “Student-Teacher feature pyramid matching for unsupervised anomaly detection” arXiv preprint arXiv:2103.04257, 2021。
訳抜け防止モード: [125 ]G. Wang, S. Han, E. Ding, そしてD. Huang氏は,“教師なしの異常検出のための教師機能ピラミッドマッチング”について語る。 arXiv preprint arXiv:2103.04257 , 2021。
0.66
[126] O. Rippel, P. Mertens, and D. Merhof, “Modeling the distribution of normal data in pre-trained deep features for anomaly detection,” in 2020 25th International Conference on Pattern Recognition (ICPR). 第25回パターン認識国際会議(icpr)は,[126] o. rippel, p. mertens, d. merhof, “anomaly detectionのための事前訓練された深層特徴における正規データ分布のモデル化” を発表した。 0.76
IEEE, 2021, pp. 6726–6733. IEEE, 2021, pp. 6726–6733。 0.92
[127] J. Pirnay and K. Chai, “Inpainting transformer for anomaly detection,” 127] j. pirnay と k. chai は "異常検出のためのインペインティングトランスフォーマー" である。 0.63
arXiv preprint arXiv:2104.13897, 2021. arXiv preprint arXiv:2104.13897, 2021 0.40
[128] T. Defard, A. Setkov, A. Loesch, and R. Audigier, “Padim: a patch distribution modeling framework for anomaly detection and localization,” in International Conference on Pattern Recognition. パターン認識に関する国際会議で,[128] t. defard, a. setkov, a. loesch, r. audigier, “padim: a patch distribution modeling framework for anomaly detection and localization” と題された。 0.91
Springer, 2021, pp. 475–489. スプリンガー, 2021, pp. 475-489。 0.72
[129] V. Zavrtanik, M. Kristan, and D. Skocaj, “Draem-a discriminatively trained reconstruction embedding for surface anomaly detection,” in Proceedings of the IEEE/CVF International Conference on Computer Vision, 2021, pp. 8330–8339. 129] v. zavrtanik, m. kristan, d. skocaj はieee/cvf international conference on computer vision, 2021, pp. 8330-8339 で "表面異常検出のための識別的に訓練された再構築埋め込み" を行った。
訳抜け防止モード: [129 ]V. Zavrtanik, M. Kristan, D. Skocaj ドライム - 表面異常検出のための識別訓練された再構築。 In Proceedings of the IEEE / CVF International Conference on Computer Vision 2021 , pp . 8330–8339 .
0.84
[130] D. Abati, A. Porrello, S. Calderara, and R. Cucchiara, “Latent space autoregression for novelty detection,” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019, pp. 481–490. D. Abati, A. Porrello, S. Calderara, R. Cucchiara, “Latent space autoregression for novelty detection” in Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, 2019, pp. 481–490。
訳抜け防止モード: [130 ]D. Abati, A. Porrello, S. Calderara, とR. Cucchiara氏は述べている。 IEEE / CVF Conference on Computer Vision に参加して and Pattern Recognition , 2019 , pp. 481–490 。
0.75
[131] S. Akcay, A. Atapour-Abarghouei, and T. P. Breckon, “Ganomaly: Semi-supervised anomaly detection via adversarial training,” in Asian conference on computer vision. S. Akcay, A. Atapour-Abarghouei, T. P. Breckon, “Ganomaly: Semi-supervised anomaly detection via adversarial training”. アジアのコンピュータビジョンカンファレンス。 0.80
Springer, 2018, pp. 622–637. スプリンガー、2018年、p. 622-637。 0.43
[132] M. Rudolph, B. Wandt, and B. Rosenhahn, “Same same but differnet: Semi-supervised defect detection with normalizing flows,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2021, pp. 1907–1916. M. Rudolph, B. Wandt, B. Rosenhahn, “Same same but differentnet: Semi-supervised defect detection with normalizing flow” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2021, pp. 1907–1916。
訳抜け防止モード: 132 ] m. rudolph, b. wandt, b. rosenhahn, 同一だが異質なネット : 正規化フローを用いた半教師付き欠陥検出」 コンピュータビジョンの応用に関するieee/cvfウィンター会議の開催にあたって 2021 , pp . 1907–1916 .
0.76
[133] D. Gudovskiy, S. Ishizaka, and K. Kozuka, “Cflow-ad: Real-time unsupervised anomaly detection with localization via conditional normalizing flows,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2022, pp. 98–107. D. Gudovskiy, S. Ishizaka, K. Kozuka, “Cflow-ad: Real-time unsupervised anomaly detection with localization with Conditional normalization flow” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2022, pp. 98–107。
訳抜け防止モード: 133 ]d.gudovskiy,s.石坂,k.小塚 cflow - ad : real - time unsupervised anomaly detection with localization via conditional normalizing flow” の略。 コンピュータビジョンの応用に関するieee/cvfウィンター会議の開催にあたって 2022 , pp . 98–107 .
0.83
[134] M. Rudolph, T. Wehrbein, B. Rosenhahn, and B. Wandt, “Fully convolutional cross-scale-flows for image-based defect detection,” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2022, pp. 1088–1097. M. Rudolph, T. Wehrbein, B. Rosenhahn, B. Wandt, “Fully convolutional cross-scale-flows for image-based defect detection” in Proceedings of the IEEE/CVF Winter Conference on Applications of Computer Vision, 2022, pp. 1088–1097。
訳抜け防止モード: [134 ]M. Rudolph, T. Wehrbein, B. Rosenhahn, B. Wandt, 完全な畳み込みクロス - 画像のスケールフロー-ベースの欠陥検出”。 In Proceedings of the IEEE / CVF Winter Conference on Applications of Computer Vision 2022 , pp . 1088–1097 .
0.87
[135] N. Rafiee, R. Gholamipoorfard, N. Adaloglou, S. Jaxy, J. Ramakers, and M. Kollmann, “Self-supervised anomaly detection by selfdistillation and negative sampling,” arXiv preprint arXiv:2201.06378, 2022. 135] n. rafiee, r. gholamipoorfard, n. adaloglou, s. jaxy, j. ramakers, m. kollmann, “自己教師による自己蒸留と負のサンプリングによる異常検出” arxiv preprint arxiv:2201.06378, 2022。
訳抜け防止モード: [135 ] N. Rafiee, R. Gholamipoorfard, N. Adaloglou, S. Jaxy, J. Ramakers, M. Kollmann, “Self - 自己蒸留と負サンプリングによる異常検出を監督する”。 arXiv preprint arXiv:2201.06378 , 2022。
0.77
[136] C. -Y. 136]C。 -y。 0.33
Chuang, J. Robinson, Y. Chuang, J. Robinson, Y。 0.46
-C. Lin, A. Torralba, and S. Jegelka, “Debiased contrastive learning,” Advances in Neural Information Processing Systems, vol. -C。 lin, a. torralba, s. jegelka, “debiased contrastive learning”, advances in neural information processing systems, vol. 神経情報処理システムの進歩。 0.57
33, 2020. [137] J. 33, 2020. 【137】j。 0.37
-B. Grill, F. Strub, F. Altch´e, C. Tallec, P. H. Richemond, E. Buchatskaya, C. Doersch, B. A. Pires, Z. D. Guo, M. G. Azar, B. Piot, K. Kavukcuoglu, R. Munos, and M. Valko, “Bootstrap your own latent: A new approach to self-supervised learning,” 2020. -B。 Grill, F. Strub, F. Altch ́e, C. Tallec, P. H. Richemond, E. Buchatskaya, C. Doersch, B. A. Pires, Z. D. Guo, M. G. Azar, B. Piot, K. Kavukcuoglu, R. Munos, M. Valko, “Bootstrap your own latent: A new approach to self-supervised learning”. 2020年3月3日閲覧。
訳抜け防止モード: -B。 Grill, F. Strub, F. Altch ́e, C. Tallec, P. H. Richemond E. Buchatskaya, C. Doersch, B. A. Pires, Z. D. Guo, M. G. Azar B. Piot, K. Kavukcuoglu, R. Munos, M. Valko 自己指導型学習への新たなアプローチ”2020年。
0.67
[138] J. Zbontar, L. Jing, I. Misra, Y. LeCun, and S. Deny, “Barlow twins: Self-supervised learning via redundancy reduction,” in Proceedings of the 38th International Conference on Machine Learning, ser. J. Zbontar, L. Jing, I. Misra, Y. LeCun, S. Deny, “Barlow twins: Self-supervised learning via redundancy reduction” in Proceedings of the 38th International Conference on Machine Learning, Ser。
訳抜け防止モード: [138 ]J. Zbontar, L. Jing, I. Misra, Y. LeCun, S. Deny, “Barlow twins : Self-supervised learning via redundancy reduction” 第38回機械学習国際会議に参加して
0.86
Proceedings of Machine Learning Research, M. Meila and T. Zhang, Eds. 機械学習研究の成果 M. Meila と T. Zhang, Eds 0.75
, vol. 139. ヴォル。 139. 0.36
PMLR, 18–24 Jul 2021, pp. 12 310–12 320. pmlr, 18–24 jul 2021, pp. 12 310–12 320。 0.73
[Online]. Available: https://proceedings. mlr.press/v139/zbont ar21a.html [オンライン]。 利用可能: https://proceedings. mlr.press/v139/zbont ar21a.html 0.47
[139] Y. Zheng, M. Jin, Y. Liu, L. Chi, K. T. Phan, S. Pan, and Y. [139] Y. Zheng, M. Jin, Y. Liu, L. Chi, K. T. Phan, S. Pan, Y。 0.46
-P. P. Chen, “From unsupervised to few-shot graph anomaly detection: A multiscale contrastive learning approach,” arXiv preprint arXiv:2202.05525, 2022. -P。 P. Chen, “From unsupervised to few-shot graph anomaly detection: A multiscale contrastive learning approach” arXiv preprint arXiv:2202.05525, 2022。
訳抜け防止モード: -P。 P. Chen, “教師なしから少数のショットグラフ異常検出:マルチスケールのコントラスト学習アプローチ”。 arXiv preprint arXiv:2202.05525 , 2022。
0.62
[140] Y. Zheng, M. Jin, Y. Liu, L. Chi, K. T. Phan, and Y. [140] Y. Zheng, M. Jin, Y. Liu, L. Chi, K. T. Phan, Y。 0.47
-P. P. Chen, “Generative and contrastive self-supervised learning for graph anomaly detection,” IEEE Transactions on Knowledge and Data Engineering, 2021. -P。 P. Chen, “Generative and contrastive self-supervised learning for graph anomaly detection”, IEEE Transactions on Knowledge and Data Engineering, 2021。
訳抜け防止モード: -P。 P. Chen, “生成的かつ対照的な自己-グラフ異常検出のための教師付き学習”。 IEEE Transactions on Knowledge and Data Engineering , 2021
0.61
[141] Y. Zhang, J. Wang, Y. Chen, H. Yu, and T. Qin, “Adaptive memory networks with self-supervised learning for unsupervised anomaly detection,” IEEE Transactions on Knowledge and Data Engineering, 2022. Y. Zhang, J. Wang, Y. Chen, H. Yu, T. Qin, “Adaptive memory network with self-supervised learning for unsupervised anomaly detection”, IEEE Transactions on Knowledge and Data Engineering, 2022。
訳抜け防止モード: [141 ] Y. Zhang, J. Wang, Y. Chen, H. Yu, そしてT.Qinは、“自己制御型適応メモリネットワークは、教師なしの異常検出のための教師なし学習”だ。 IEEE Transactions on Knowledge and Data Engineering , 2022
0.69
[142] H. Hojjati and N. Armanfard, “Self-supervised acoustic anomaly detection via contrastive learning,” in ICASSP 2022 - 2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), 2022. 142] h. hojjati, n. armanfard, “self-supervised acoustic anomaly detection via contrastive learning” in icassp 2022 - 2022 ieee international conference on acoustics, speech and signal processing (icassp)
訳抜け防止モード: [142 ]H. Hojjati,N. Armanfard, “Self - 教師付き音響異常検出をコントラスト学習で行う”。 ICASSP 2022 - 2022 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP ) , 2022。
0.84
                                     ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。