論文の概要: Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments
- arxiv url: http://arxiv.org/abs/2411.00186v1
- Date: Thu, 31 Oct 2024 20:05:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:42:39.903321
- Title: Self-Healing Machine Learning: A Framework for Autonomous Adaptation in Real-World Environments
- Title(参考訳): 自己修復機械学習: 実環境における自律的適応のためのフレームワーク
- Authors: Paulius Rauba, Nabeel Seedat, Krzysztof Kacprzyk, Mihaela van der Schaar,
- Abstract要約: 実世界の機械学習システムは、基礎となるデータ生成プロセスの分散シフトによって、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
我々はこれらの制限を克服するために自己修復機械学習(SHML)を提案する。
- 参考スコア(独自算出の注目度): 50.310636905746975
- License:
- Abstract: Real-world machine learning systems often encounter model performance degradation due to distributional shifts in the underlying data generating process (DGP). Existing approaches to addressing shifts, such as concept drift adaptation, are limited by their reason-agnostic nature. By choosing from a pre-defined set of actions, such methods implicitly assume that the causes of model degradation are irrelevant to what actions should be taken, limiting their ability to select appropriate adaptations. In this paper, we propose an alternative paradigm to overcome these limitations, called self-healing machine learning (SHML). Contrary to previous approaches, SHML autonomously diagnoses the reason for degradation and proposes diagnosis-based corrective actions. We formalize SHML as an optimization problem over a space of adaptation actions to minimize the expected risk under the shifted DGP. We introduce a theoretical framework for self-healing systems and build an agentic self-healing solution H-LLM which uses large language models to perform self-diagnosis by reasoning about the structure underlying the DGP, and self-adaptation by proposing and evaluating corrective actions. Empirically, we analyze different components of H-LLM to understand why and when it works, demonstrating the potential of self-healing ML.
- Abstract(参考訳): 実世界の機械学習システムは、基礎となるデータ生成プロセス(DGP)の分散シフトにより、モデルの性能劣化に遭遇することが多い。
概念のドリフト適応のような既存のシフトへのアプローチは、その理性に依存しない性質によって制限される。
事前定義されたアクションセットから選択することで、モデル劣化の原因がどのアクションをとるべきかとは無関係であると暗黙的に仮定し、適切な適応を選択する能力を制限する。
本稿では,これらの制約を克服する代替パラダイムとして,自己修復機械学習(SHML)を提案する。
従来のアプローチとは対照的に、SHMLは劣化の原因を自律的に診断し、診断に基づく是正行動を提案する。
SHMLを適応行動空間上の最適化問題として定式化し、シフトDGPの下での予測リスクを最小限に抑える。
本研究では, 自己修復システムの理論的枠組みを導入し, 大規模言語モデルを用いて自己診断を行うエージェント型自己修復ソリューションH-LLMを構築する。
実験的に,H-LLMの様々な成分を分析し,それがなぜ,いつ機能するのかを解明し,自己修復型MLの可能性を示す。
関連論文リスト
- Generative Principal Component Regression via Variational Inference [2.4415762506639944]
適切な操作を設計するための1つのアプローチは、予測モデルの重要な特徴をターゲットとすることである。
我々は,そのような情報を潜在空間で表現する,教師付き変分オートエンコーダ(SVAE)に基づく新しい目的を開発する。
シミュレーションでは,gPCRは通常のPCRやSVAEと比較して,操作時のターゲット選択を劇的に改善することを示した。
論文 参考訳(メタデータ) (2024-09-03T22:38:55Z) - Self-Labeling in Multivariate Causality and Quantification for Adaptive Machine Learning [0.0]
ドメイン適応のための因果関係データストリームを自律的に関連付けるための対話型因果関係に基づく自己ラベル手法を提案した。
本稿では,これらの研究課題に対処する自己ラベルフレームワークとその理論的基盤をさらに発展させる。
論文 参考訳(メタデータ) (2024-04-08T18:16:22Z) - Tuning-Free Accountable Intervention for LLM Deployment -- A
Metacognitive Approach [55.613461060997004]
大規模言語モデル(LLM)は、自然言語処理タスクの幅広い領域にわたる変換的進歩を触媒している。
我々は,自己認識型誤り識別と訂正機能を備えたLLMを実現するために,textbfCLEARと呼ばれる革新的なテキストメタ認知手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T19:18:53Z) - InferAligner: Inference-Time Alignment for Harmlessness through
Cross-Model Guidance [56.184255657175335]
我々は,無害アライメントのためのクロスモデルガイダンスを利用する新しい推論時間アライメント手法であるtextbfInferAligner を開発した。
実験結果から,本手法はファイナンス,医学,数学の分野特化モデルに極めて効果的に適用可能であることが示された。
これは有害な命令とジェイルブレイク攻撃の両方のアタック成功率(ASR)を著しく低下させ、下流タスクではほとんど変化のないパフォーマンスを維持している。
論文 参考訳(メタデータ) (2024-01-20T10:41:03Z) - Predictable MDP Abstraction for Unsupervised Model-Based RL [93.91375268580806]
予測可能なMDP抽象化(PMA)を提案する。
元のMDPで予測モデルを訓練する代わりに、学習されたアクション空間を持つ変換MDPでモデルを訓練する。
我々はPMAを理論的に解析し、PMAが以前の教師なしモデルベースRLアプローチよりも大幅に改善することを示す。
論文 参考訳(メタデータ) (2023-02-08T07:37:51Z) - Learning Optimal Features via Partial Invariance [18.552839725370383]
不変リスク最小化(IRM)は、複数の環境から堅牢なモデルを学ぶことを目的とした一般的なフレームワークである。
IRMが予測器を過度に抑制できることを示し、これを補うために、$textitpartial invariance$を介して緩和を提案する。
線形設定と、言語と画像データの両方のタスクにおけるディープニューラルネットワークの両方で実施されたいくつかの実験により、結論の検証が可能になった。
論文 参考訳(メタデータ) (2023-01-28T02:48:14Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - HEX: Human-in-the-loop Explainability via Deep Reinforcement Learning [2.322461721824713]
我々は、機械学習説明可能性(MLX)に対するHEX(Human-in-the-loop Deep reinforcement learning approach)を提案する。
我々の定式化は、基礎となるトレーニングデータではなく、問題となるMLモデルの決定境界を明示的に考慮している。
提案手法は,限られたデータシナリオで使用するために問題となるモデルの決定境界を明示的にキャプチャするHITL MLXポリシーを合成する。
論文 参考訳(メタデータ) (2022-06-02T23:53:40Z) - On the Impact of Applying Machine Learning in the Decision-Making of
Self-Adaptive Systems [17.93069260609691]
計算学習理論を用いて、検証者による予測に対する機械学習手法の影響に関する理論的境界を決定する。
最後に、この分野における今後の研究の機会を検討します。
論文 参考訳(メタデータ) (2021-03-18T11:59:50Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。