論文の概要: Cost Trade-offs in Matrix Inversion Updates for Streaming Outlier Detection
- arxiv url: http://arxiv.org/abs/2603.16697v1
- Date: Tue, 17 Mar 2026 15:51:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:07.389375
- Title: Cost Trade-offs in Matrix Inversion Updates for Streaming Outlier Detection
- Title(参考訳): 外乱検出のストリーム化のための行列反転更新におけるコストトレードオフ
- Authors: Florian Grivet, Louise Travé-Massuyès,
- Abstract要約: 本技術は,ダイレクト・インバージョン(DI),イテレーティブ・シャーマン・モリソン(ISM),ウッドベリー・マトリックス・アイデンティティ(WMI)の3つの異なる更新手法を比較することを目的とする。
ISMはランク1更新に最適であり、WMIは行列サイズに対して小さな更新に最適であり、DIはそうでなければ好ましい。
- 参考スコア(独自算出の注目度): 0.479839492673697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outlier detection identifies data points that deviate significantly from expected patterns, revealing anomalies that may require special attention. Incorporating online learning further improves accuracy by continuously updating the model to reflect the most recent data. When employing the Christoffel function as an outlier score, online learning requires updating the inverse of a matrix following a rank-k update, given the initial inverse. Surprisingly, there is no consensus on the optimal method for this task. This technical note aims to compare three different updating methods: Direct Inversion (DI), Iterative Sherman-Morrison (ISM), and Woodbury Matrix Identity (WMI), to identify the most suitable approach for different scenarios. We first derive the theoretical computational costs of each method and then validate these findings through comprehensive Python simulations run on a CPU. These results allow us to propose a simple, quantitative, and easy-to-remember rule that can be stated qualitatively as follows: ISM is optimal for rank-1 updates, WMI excels for small updates relative to matrix size, and DI is preferable otherwise. This technical note produces a general result for any problem involving a matrix inversion update. In particular, it contributes to the ongoing development of efficient online outlier detection techniques.
- Abstract(参考訳): 外乱検出は、期待するパターンから著しく逸脱するデータポイントを特定し、特別な注意を要する可能性のある異常を明らかにする。
オンライン学習を取り入れることで、最新のデータを反映したモデルを継続的に更新することで、精度が向上する。
Christoffel関数を外れ値として使用する場合、オンライン学習では、最初の逆が与えられたとき、ランクk更新後の行列の逆を更新する必要がある。
驚くべきことに、このタスクの最適な方法について合意が得られない。
この技術ノートは、ダイレクト・インバージョン(DI)、イテレーティブ・シャーマン・モリソン(ISM)、ウッドベリー・マトリックス・アイデンティティ(WMI)の3つの異なる更新方法を比較することを目的としている。
まず,各手法の理論的計算コストを導出し,それらをCPU上で実行したPythonシミュレーションを用いて検証する。
ISMはランク1更新に最適であり、WMIは行列サイズに対して小さな更新に最適であり、DIはそれ以外は好ましい。
この技術的ノートは、行列の反転更新を含むあらゆる問題に対して一般的な結果をもたらす。
特に、効率的なオンラインアウトレイラ検出技術の開発に寄与している。
関連論文リスト
- Outlier-Robust Training of Machine Learning Models [21.352210662488112]
本稿では,外部学習を用いた機械学習モデルの学習のための適応交替アルゴリズムを提案する。
アルゴリズムは、各重みを更新しながら、非ロバスト損失の重み付きバージョンを使用してモデルを反復的に訓練する。
任意の外接点(すなわち、外接点に分布的な仮定がない)を考えると、ロバストな損失核のシグマの使用は収束の領域を増大させる。
論文 参考訳(メタデータ) (2024-12-31T04:19:53Z) - Attribute-to-Delete: Machine Unlearning via Datamodel Matching [65.13151619119782]
機械学習 -- 事前訓練された機械学習モデルで、小さな"ターゲットセット"トレーニングデータを効率的に削除する -- は、最近関心を集めている。
最近の研究では、機械学習技術はこのような困難な環境では耐えられないことが示されている。
論文 参考訳(メタデータ) (2024-10-30T17:20:10Z) - Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - Consensus-Adaptive RANSAC [104.87576373187426]
本稿では,パラメータ空間の探索を学習する新しいRANSACフレームワークを提案する。
注意機構は、ポイント・ツー・モデル残差のバッチで動作し、軽量のワンステップ・トランスフォーマーで見いだされたコンセンサスを考慮するために、ポイント・ツー・モデル推定状態を更新する。
論文 参考訳(メタデータ) (2023-07-26T08:25:46Z) - Look-ups are not (yet) all you need for deep learning inference [0.0]
行列乗算に対する高速な近似は、ニューラルネットワーク推論のコストを劇的に削減する可能性がある。
学習データから高速なハッシュ関数を組み込むことにより,コストのかかる行列乗法をテーブル・ルックアップに置き換えるための近似行列乗法に関する最近の研究が進められている。
本研究は,本研究の深層学習推論設定を対象とする,従来の研究の改善を提案する。
論文 参考訳(メタデータ) (2022-07-12T19:46:23Z) - Matrix Completion via Non-Convex Relaxation and Adaptive Correlation
Learning [90.8576971748142]
閉形式解によって最適化できる新しいサロゲートを開発する。
そこで我々は, 上向きの相関関係を利用して, 適応的相関学習モデルを構築した。
論文 参考訳(メタデータ) (2022-03-04T08:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。