論文の概要: Towards Continuous Experiment-driven MLOps
- arxiv url: http://arxiv.org/abs/2503.03455v1
- Date: Wed, 05 Mar 2025 12:41:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:53:13.875541
- Title: Towards Continuous Experiment-driven MLOps
- Title(参考訳): 継続的実験駆動型MLOpsを目指して
- Authors: Keerthiga Rajenthiram, Milad Abdullah, Ilias Gerostathopoulos, Petr Hnetynka, Tomáš Bureš, Gerard Pons, Besim Bilalli, Anna Queralt,
- Abstract要約: MLモデルの最適化と進化に対するサポートが不十分で、制限がある。
これらの問題に対処する実験駆動型MLOpsアプローチを提案する。
ExtremeXP1プロジェクトでその実現と応用を通じて、我々のアプローチを実証する。
- 参考スコア(独自算出の注目度): 3.4799421102633787
- License:
- Abstract: Despite advancements in MLOps and AutoML, ML development still remains challenging for data scientists. First, there is poor support for and limited control over optimizing and evolving ML models. Second, there is lack of efficient mechanisms for continuous evolution of ML models which would leverage the knowledge gained in previous optimizations of the same or different models. We propose an experiment-driven MLOps approach which tackles these problems. Our approach relies on the concept of an experiment, which embodies a fully controllable optimization process. It introduces full traceability and repeatability to the optimization process, allows humans to be in full control of it, and enables continuous improvement of the ML system. Importantly, it also establishes knowledge, which is carried over and built across a series of experiments and allows for improving the efficiency of experimentation over time. We demonstrate our approach through its realization and application in the ExtremeXP1 project (Horizon Europe).
- Abstract(参考訳): MLOpsとAutoMLの進歩にもかかわらず、ML開発は依然としてデータサイエンティストにとって難しい。
第一に、MLモデルの最適化と進化に対するサポートが不十分で、コントロールが制限されている。
第二に、MLモデルの継続的な進化のための効率的なメカニズムが欠如しており、同じモデルや異なるモデルの以前の最適化で得られた知識を活用している。
これらの問題に対処する実験駆動型MLOpsアプローチを提案する。
提案手法は,完全制御可能な最適化プロセスを具現化した実験の概念に依拠する。
最適化プロセスに完全なトレーサビリティと反復性を導入し、人間が完全にコントロールできるようにし、MLシステムの継続的な改善を可能にします。
重要なことは、一連の実験を積み重ねて構築され、時間の経過とともに実験の効率を改善することができる知識を確立することである。
我々はExtremeXP1プロジェクト(Horizon Europe)において、その実現と応用を通じて、我々のアプローチを実証する。
関連論文リスト
- Can Large Language Models Be Trusted as Black-Box Evolutionary Optimizers for Combinatorial Problems? [8.082897040940447]
LLM(Large Language Models)は、幅広い知識でゲームを変えるソリューションを提供し、最適化のパラダイムを民主化することができる。
したがって、LLMの適合性を進化機構(EVO)として評価することが不可欠である。
論文 参考訳(メタデータ) (2025-01-25T05:19:19Z) - Star-Agents: Automatic Data Optimization with LLM Agents for Instruction Tuning [71.2981957820888]
本稿では,データセット間のデータ品質向上を自動化する新しいStar-Agentsフレームワークを提案する。
このフレームワークは最初,複数のLDMエージェントを用いた多様なインストラクションデータを生成する。
生成したデータは、難易度と品質の両方を評価する二重モデル法を用いて厳密な評価を行う。
論文 参考訳(メタデータ) (2024-11-21T02:30:53Z) - Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - On-the-fly Modulation for Balanced Multimodal Learning [53.616094855778954]
マルチモーダル学習は、異なるモーダルからの情報を統合することでモデル性能を向上させることが期待されている。
広く使われている共同トレーニング戦略は、不均衡で最適化されていないユニモーダル表現につながる。
そこで本研究では,OGM(On-the-fly Prediction Modulation)とOGM(On-the-fly Gradient Modulation)の戦略を提案する。
論文 参考訳(メタデータ) (2024-10-15T13:15:50Z) - Large Language Models as Surrogate Models in Evolutionary Algorithms: A Preliminary Study [5.6787965501364335]
サロゲートアシスト選択は、高価な最適化問題を解決する進化アルゴリズムの中核的なステップである。
伝統的に、これは従来の機械学習手法に依存しており、過去の評価を利用して新しいソリューションの性能を予測する。
本研究では,LLM推論機能に基づいた新しいサロゲートモデルを提案する。
論文 参考訳(メタデータ) (2024-06-15T15:54:00Z) - A Survey on Self-Evolution of Large Language Models [116.54238664264928]
大規模言語モデル(LLM)は、様々な分野やインテリジェントエージェントアプリケーションにおいて大きく進歩している。
この問題に対処するために、LLMが自律的に獲得し、洗練し、モデル自身によって生成された経験から学ぶことができる自己進化的アプローチが急速に成長している。
論文 参考訳(メタデータ) (2024-04-22T17:43:23Z) - MLXP: A Framework for Conducting Replicable Experiments in Python [63.37350735954699]
MLXPはPythonをベースとした,オープンソースの,シンプルで,軽量な実験管理ツールである。
実験プロセスを最小限のオーバーヘッドで合理化し、高いレベルの実践的オーバーヘッドを確保します。
論文 参考訳(メタデータ) (2024-02-21T14:22:20Z) - Learning to optimize by multi-gradient for multi-objective optimization [0.0]
我々はMOO問題を最適化するための新しい自動学習パラダイムを導入し、ML2O法を提案する。
学習に基づく手法として、ML2Oは現在のステップからの情報を活用することで、地域景観の知識を取得する。
我々の学習は、マルチタスク学習(MTL)ニューラルネットワークのトレーニングにおいて、手作りの競争相手よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-01T14:55:54Z) - Exploring MLOps Dynamics: An Experimental Analysis in a Real-World
Machine Learning Project [0.0]
この実験には総合的なMLOpsワークフローが含まれており、問題定義、データ取得、データ準備、モデル開発、モデルデプロイメント、監視、管理、スケーラビリティ、ガバナンスとコンプライアンスといった重要なフェーズをカバーしている。
体系的な追跡手法を用いて、焦点を絞ったメインフェーズから特定のフェーズへの修正を文書化し、そのような修正の理由を捉えた。
その結果得られたデータは、MLOpsプロセスの相互依存性と実験フレームワーク内の反復的な特性を視覚的に表現する。
論文 参考訳(メタデータ) (2023-07-22T10:33:19Z) - Machine Learning with Knowledge Constraints for Process Optimization of
Open-Air Perovskite Solar Cell Manufacturing [5.240805076177176]
本稿では,製造プロセス最適化のための逐次学習のMLフレームワークを提案する。
環境条件下でのペロブスカイト薄膜のラピッドスプレープラズマプロセッシング(RSPP)技術に本手法を適用した。
100条件のプロセス条件をスクリーニングする実験予算を限定し, 最高の動作装置に対して18.5%の効率向上を実証した。
論文 参考訳(メタデータ) (2021-10-01T00:36:56Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。