論文の概要: Improved Anomaly Detection by Using the Attention-Based Isolation Forest
- arxiv url: http://arxiv.org/abs/2210.02558v1
- Date: Wed, 5 Oct 2022 20:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 15:41:40.390399
- Title: Improved Anomaly Detection by Using the Attention-Based Isolation Forest
- Title(参考訳): 注意型孤立林を用いた異常検出の改善
- Authors: Lev V. Utkin and Andrey Y. Ageev and Andrei V. Konstantinov
- Abstract要約: 異常検出問題の解決を目的としたアテンションベース隔離林(ABIForest)を提案する。
主な考え方は、各木の経路に、インスタンスやツリー自体に依存する学習可能なパラメータで注意重みを割り当てることである。
ABIForestは、勾配に基づくアルゴリズムを適用することなく、注意機構を簡単な方法で組み込んだ最初の分離林の修正と見なすことができる。
- 参考スコア(独自算出の注目度): 4.640835690336653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new modification of Isolation Forest called Attention-Based Isolation
Forest (ABIForest) for solving the anomaly detection problem is proposed. It
incorporates the attention mechanism in the form of the Nadaraya-Watson
regression into the Isolation Forest for improving solution of the anomaly
detection problem. The main idea underlying the modification is to assign
attention weights to each path of trees with learnable parameters depending on
instances and trees themselves. The Huber's contamination model is proposed to
be used for defining the attention weights and their parameters. As a result,
the attention weights are linearly depend on the learnable attention parameters
which are trained by solving the standard linear or quadratic optimization
problem. ABIForest can be viewed as the first modification of Isolation Forest,
which incorporates the attention mechanism in a simple way without applying
gradient-based algorithms. Numerical experiments with synthetic and real
datasets illustrate outperforming results of ABIForest. The code of proposed
algorithms is available.
- Abstract(参考訳): 異常検出問題を解決するために,ABIフォレスト(Attention-Based isolated Forest, ABIForest)と呼ばれる孤立林を改良した。
ナダラヤ・ワトソン回帰(Nadaraya-Watson regression)の形で注意機構を分離林に組み込み、異常検出問題の解法を改善する。
変更の根底にある主なアイデアは、インスタンスやツリー自体に応じて学習可能なパラメータを持つ木の各パスに注意重みを割り当てることである。
フーバーの汚染モデルは注意重みとそのパラメータを定義するために使われることが提案されている。
その結果、注意重みは、標準線形あるいは二次最適化問題の解法によって訓練された学習可能な注意パラメータに線形に依存する。
ABIForestは、勾配に基づくアルゴリズムを適用することなく、注意機構を簡単な方法で組み込んだ最初の分離林の修正と見なすことができる。
合成データセットと実データセットによる数値実験は、ABIForestの優れた結果を示している。
提案アルゴリズムのコードは利用可能である。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Localized Gaussians as Self-Attention Weights for Point Clouds Correspondence [92.07601770031236]
本稿では,エンコーダのみのトランスフォーマーアーキテクチャのアテンションヘッドにおける意味的意味パターンについて検討する。
注意重みの修正はトレーニングプロセスの促進だけでなく,最適化の安定性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-09-20T07:41:47Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - GibbsDDRM: A Partially Collapsed Gibbs Sampler for Solving Blind Inverse
Problems with Denoising Diffusion Restoration [64.8770356696056]
本稿では,DDRM(Denoising Diffusion Restoration Models)の拡張であるGibbsDDRMを提案する。
提案手法は問題に依存しないため,様々な逆問題に対して事前学習した拡散モデルを適用することができる。
論文 参考訳(メタデータ) (2023-01-30T06:27:48Z) - LARF: Two-level Attention-based Random Forests with a Mixture of
Contamination Models [5.482532589225552]
LARF(Leaf Attention-based Random Forest)と呼ばれる注意に基づくランダム林の新しいモデルを提案する。
最初のアイデアは2段階の注意を導入することであり、その1つのレベルが「葉」の注意であり、すべての木の葉に注意機構が適用される。
第2のアイデアは、注意点におけるソフトマックス演算を、異なるパラメータによるソフトマックス演算の重み付け和に置き換えることである。
論文 参考訳(メタデータ) (2022-10-11T06:14:12Z) - AGBoost: Attention-based Modification of Gradient Boosting Machine [0.0]
回帰問題を解くため, AGBoost と呼ばれる勾配促進機 (GBM) の新たなアテンションベースモデルを提案する。
提案されたAGBoostモデルの背後にある主要なアイデアは、GBMの反復にトレーニング可能なパラメータで注意重みを割り当てることである。
論文 参考訳(メタデータ) (2022-07-12T17:42:20Z) - Attention and Self-Attention in Random Forests [5.482532589225552]
注意と自己注意機構を併用したランダム林の新しいモデルを提案する。
自己注意は、木の予測の依存関係を捉え、ランダムな森のノイズや異常な予測を取り除くことを目的としている。
論文 参考訳(メタデータ) (2022-07-09T16:15:53Z) - Self-Supervised Training with Autoencoders for Visual Anomaly Detection [61.62861063776813]
我々は, 正規サンプルの分布を低次元多様体で支持する異常検出において, 特定のユースケースに焦点を当てた。
我々は、訓練中に識別情報を活用する自己指導型学習体制に適応するが、通常の例のサブ多様体に焦点をあてる。
製造領域における視覚異常検出のための挑戦的なベンチマークであるMVTec ADデータセットで、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2022-06-23T14:16:30Z) - Attention-based Random Forest and Contamination Model [5.482532589225552]
提案されたABRFモデルの背後にある主要なアイデアは、特定の方法で決定木にトレーニング可能なパラメータで注意重みを割り当てることである。
重みは、木の対応する葉に落ちるインスタンスと、同じ葉に落ちるインスタンスとの距離に依存する。
論文 参考訳(メタデータ) (2022-01-08T19:35:57Z) - Interpretable Anomaly Detection with DIFFI: Depth-based Isolation Forest
Feature Importance [4.769747792846005]
異常検出(英: Anomaly Detection)は、歴史的データに対する異常な振る舞いを検出することを目的とした教師なし学習課題である。
孤立林は、異常検出の分野で最も広く採用されているアルゴリズムの1つである。
本稿では,森林のグローバルレベルと地域レベルの両方で特徴重要度を定義する手法を提案する。
論文 参考訳(メタデータ) (2020-07-21T22:19:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。