論文の概要: Towards a consistent interpretation of AIOps models
- arxiv url: http://arxiv.org/abs/2202.02298v1
- Date: Fri, 4 Feb 2022 18:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 16:05:05.261434
- Title: Towards a consistent interpretation of AIOps models
- Title(参考訳): AIOpsモデルの一貫した解釈に向けて
- Authors: Yingzhe Lyu, Gopi Krishnan Rajbahadur, Dayi Lin, Boyuan Chen, Zhen
Ming (Jack) Jiang
- Abstract要約: 内部整合性,外部整合性,時間整合性という,AIOpsモデルの解釈の整合性について検討する。
学習者からのランダム性、ハイパーパラメータチューニング、データサンプリングは、一貫した解釈を生成するために制御されるべきである。
我々の研究は、実践者が一貫したAIOpsモデルの解釈を引き出すための貴重なガイドラインを提供する。
- 参考スコア(独自算出の注目度): 24.198687211998998
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence for IT Operations (AIOps) has been adopted in
organizations in various tasks, including interpreting models to identify
indicators of service failures. To avoid misleading practitioners, AIOps model
interpretations should be consistent (i.e., different AIOps models on the same
task agree with one another on feature importance). However, many AIOps studies
violate established practices in the machine learning community when deriving
interpretations, such as interpreting models with suboptimal performance,
though the impact of such violations on the interpretation consistency has not
been studied. In this paper, we investigate the consistency of AIOps model
interpretation along three dimensions: internal consistency, external
consistency, and time consistency. We conduct a case study on two AIOps tasks:
predicting Google cluster job failures, and Backblaze hard drive failures. We
find that the randomness from learners, hyperparameter tuning, and data
sampling should be controlled to generate consistent interpretations. AIOps
models with AUCs greater than 0.75 yield more consistent interpretation
compared to low-performing models. Finally, AIOps models that are constructed
with the Sliding Window or Full History approaches have the most consistent
interpretation with the trends presented in the entire datasets. Our study
provides valuable guidelines for practitioners to derive consistent AIOps model
interpretation.
- Abstract(参考訳): AIOps(Artificial Intelligence for IT Operations)は、サービス障害の指標を特定するためのモデル解釈など、さまざまなタスクの組織で採用されている。
誤解を招く実践者を避けるために、aiopsモデルの解釈は一貫性を持たなければならない(つまり、同じタスク上の異なるaiopsモデルは、機能の重要性について互いに一致している)。
しかし、多くのAIOps研究は、解釈の一貫性に対するこれらの違反の影響は研究されていないが、モデルと準最適性能を解釈するなど、解釈の導出において機械学習コミュニティの確立した慣行に反する。
本稿では,aiopsモデル解釈の一貫性について,内部一貫性,外部一貫性,時間一貫性の3次元で検討する。
私たちは、Googleクラスタのジョブ障害の予測とBackblazeハードドライブ障害の2つのAIOpsタスクのケーススタディを行います。
学習者からのランダム性、ハイパーパラメータチューニング、データサンプリングは、一貫した解釈を生成するために制御されるべきである。
AUCが0.75を超えるAIOpsモデルは、低パフォーマンスモデルよりも一貫性のある解釈をもたらす。
最後に、スライディングウィンドウまたはフルヒストリーアプローチで構築されたAIOpsモデルは、データセット全体のトレンドと最も一貫性のある解釈を持つ。
本研究は、一貫したaiopsモデル解釈を導出するための有用なガイドラインを提供する。
関連論文リスト
- Investigating the Impact of Model Complexity in Large Language Models [3.7919508292745676]
事前訓練された微調整パラダイムに基づく大規模言語モデル(LLM)は、自然言語処理タスクの解決において重要な役割を担っている。
本稿では,自己回帰 LLM に着目し,HMM (Hidden Markov Models) を用いたモデリングを提案する。
論文 参考訳(メタデータ) (2024-10-01T13:53:44Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
課題群規則化(Task Groupings Regularization)は、矛盾するタスクをグループ化し整合させることにより、モデルの不均一性から恩恵を受ける新しいアプローチである。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - A PAC-Bayesian Perspective on the Interpolating Information Criterion [54.548058449535155]
補間系の性能に影響を及ぼす要因を特徴付ける一般モデルのクラスに対して,PAC-Bayes境界がいかに得られるかを示す。
オーバーパラメータ化モデルに対するテスト誤差が、モデルとパラメータの初期化スキームの組み合わせによって課される暗黙の正規化の品質に依存するかの定量化を行う。
論文 参考訳(メタデータ) (2023-11-13T01:48:08Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Understanding Pathologies of Deep Heteroskedastic Regression [25.509884677111344]
ヘテロスケダスティックモデルは各データポイントの平均ノイズと残留ノイズの両方を予測する。
極端に言えば、これらのモデルはすべてのトレーニングデータを完璧に適合させ、残音を完全に排除する。
他方では、一定で非形式的な平均を予測しながら残音を過度に補正する。
中間地盤の欠如を観察し, モデル正則化強度に依存する相転移を示唆した。
論文 参考訳(メタデータ) (2023-06-29T06:31:27Z) - On the Compositional Generalization Gap of In-Context Learning [73.09193595292233]
In-distriion (ID) と Out-of-distriion (OOD) の相違について考察する。
我々は,3つの意味解析データセットを用いて,OPT,BLOOM,CodeGen,Codexの4つのモデルファミリを評価する。
論文 参考訳(メタデータ) (2022-11-15T19:56:37Z) - Unveiling Project-Specific Bias in Neural Code Models [20.131797671630963]
大規模言語モデル(LLM)ベースのニューラルネットワークモデルは、実際のプロジェクト間アウトオブディストリビューション(OOD)データに効果的に一般化するのに苦労することが多い。
この現象は, 地中真実の証拠ではなく, プロジェクト固有のショートカットによる予測に大きく依存していることが示唆された。
サンプル間の潜在論理関係を利用してモデルの学習行動を規則化する新しいバイアス緩和機構を提案する。
論文 参考訳(メタデータ) (2022-01-19T02:09:48Z) - Influence Tuning: Demoting Spurious Correlations via Instance
Attribution and Instance-Driven Updates [26.527311287924995]
インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
制御された設定では、インフルエンスチューニングは、データの急激なパターンからモデルを分解するのに役立ちます。
論文 参考訳(メタデータ) (2021-10-07T06:59:46Z) - On the Efficacy of Adversarial Data Collection for Question Answering:
Results from a Large-Scale Randomized Study [65.17429512679695]
逆データ収集(ADC)では、人間の労働力がモデルとリアルタイムで対話し、誤った予測を誘発する例を作成しようとする。
ADCの直感的な魅力にも拘わらず、敵対的データセットのトレーニングがより堅牢なモデルを生成するかどうかは不明だ。
論文 参考訳(メタデータ) (2021-06-02T00:48:33Z) - Disentangled Recurrent Wasserstein Autoencoder [17.769077848342334]
Recurrent Wasserstein Autoencoder (R-WAE)はシーケンシャルデータの生成モデリングのための新しいフレームワークである。
R-WAEは入力シーケンスの表現を静的および動的因子に切り離す。
私達のモデルは無条件のビデオ生成およびdisentanglementの点では同じ設定の他のベースラインを上回ります。
論文 参考訳(メタデータ) (2021-01-19T07:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。