論文の概要: A Continual Development Methodology for Large-scale Multitask Dynamic ML
Systems
- arxiv url: http://arxiv.org/abs/2209.07326v1
- Date: Thu, 15 Sep 2022 14:36:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-16 11:53:48.005163
- Title: A Continual Development Methodology for Large-scale Multitask Dynamic ML
Systems
- Title(参考訳): 大規模マルチタスク動的MLシステムの継続的開発手法
- Authors: Andrea Gesmundo
- Abstract要約: 提示された研究は、MLモデルをモジュラーおよびアンバウンドアーティファクトとして定義することで、新しいML開発方法論を導入することができるという直感に基づいている。
マルチタスクMLモデルを生成するための新しい手法を,拡張とマルチタスクのシーケンスとして定義する。
これにより、サイズと計算コストが向上し、アート品質の状態を達成した124のイメージ分類タスクを共同で解決できるMLモデルが生成される。
- 参考スコア(独自算出の注目度): 2.579908688646812
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The traditional Machine Learning (ML) methodology requires to fragment the
development and experimental process into disconnected iterations whose
feedback is used to guide design or tuning choices. This methodology has
multiple efficiency and scalability disadvantages, such as leading to spend
significant resources into the creation of multiple trial models that do not
contribute to the final solution.The presented work is based on the intuition
that defining ML models as modular and extensible artefacts allows to introduce
a novel ML development methodology enabling the integration of multiple design
and evaluation iterations into the continuous enrichment of a single unbounded
intelligent system. We define a novel method for the generation of dynamic
multitask ML models as a sequence of extensions and generalizations. We first
analyze the capabilities of the proposed method by using the standard ML
empirical evaluation methodology. Finally, we propose a novel continuous
development methodology that allows to dynamically extend a pre-existing
multitask large-scale ML system while analyzing the properties of the proposed
method extensions. This results in the generation of an ML model capable of
jointly solving 124 image classification tasks achieving state of the art
quality with improved size and compute cost.
- Abstract(参考訳): 従来の機械学習(ml)の方法論では、開発プロセスと実験プロセスを、設計やチューニングの選択を導くためにフィードバックが使用される切り離されたイテレーションに断片化する必要がある。
This methodology has multiple efficiency and scalability disadvantages, such as leading to spend significant resources into the creation of multiple trial models that do not contribute to the final solution.The presented work is based on the intuition that defining ML models as modular and extensible artefacts allows to introduce a novel ML development methodology enabling the integration of multiple design and evaluation iterations into the continuous enrichment of a single unbounded intelligent system.
動的マルチタスクmlモデルを生成するための新しい手法を拡張と一般化のシーケンスとして定義する。
まず,標準ML実験評価手法を用いて提案手法の性能解析を行った。
最後に,提案手法の特性を解析しながら,既存のマルチタスク大規模mlシステムを動的に拡張できる新しい連続開発手法を提案する。
これにより、サイズと計算コストが向上し、アート品質の状態を達成した124のイメージ分類タスクを共同で解決できるMLモデルが生成される。
関連論文リスト
- Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Process Modeling With Large Language Models [42.0652924091318]
本稿では,大規模言語モデル(LLM)のプロセスモデリングへの統合について検討する。
プロセスモデルの自動生成と反復的改善にLLMを利用するフレームワークを提案する。
予備的な結果は、プロセスモデリングタスクを合理化するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2024-03-12T11:27:47Z) - Model Composition for Multimodal Large Language Models [73.70317850267149]
本稿では,既存のMLLMのモデル構成による新しいパラダイムを提案する。
我々の基本的な実装であるNaiveMCは、モダリティエンコーダを再利用し、LLMパラメータをマージすることで、このパラダイムの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-20T06:38:10Z) - Robust Analysis of Multi-Task Learning Efficiency: New Benchmarks on Light-Weighed Backbones and Effective Measurement of Multi-Task Learning Challenges by Feature Disentanglement [69.51496713076253]
本稿では,既存のMTL手法の効率性に焦点をあてる。
バックボーンを小さくしたメソッドの大規模な実験と,MetaGraspNetデータセットを新しいテストグラウンドとして実施する。
また,MTLにおける課題の新規かつ効率的な識別子として,特徴分散尺度を提案する。
論文 参考訳(メタデータ) (2024-02-05T22:15:55Z) - When Parameter-efficient Tuning Meets General-purpose Vision-language
Models [65.19127815275307]
PETALは、一意のモード近似技術によって達成される全パラメータの0.5%しか必要とせず、トレーニングプロセスに革命をもたらす。
実験の結果,PETALは現状の手法をほとんどのシナリオで上回るだけでなく,完全な微調整モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-12-16T17:13:08Z) - Challenges and opportunities for machine learning in multiscale
computational modeling [0.0]
複雑なマルチスケールシステムの解法は、解空間の高次元性のために計算的に一様である。
機械学習(ML)は、従来の数値手法のサロゲートとして機能し、加速し、拡張できる有望なソリューションとして登場した。
本稿では、複雑なマルチスケールモデリングとシミュレーションにMLを使う機会と課題について述べる。
論文 参考訳(メタデータ) (2023-03-22T02:04:39Z) - A Multi-Agent Framework for the Asynchronous and Collaborative Extension
of Multitask ML Systems [2.579908688646812]
トラジションML開発方法論は、多くのコントリビュータが共有インテリジェントシステムの作成と拡張に一括して取り組むことができない。
本稿では,動的大規模マルチタスクインテリジェントシステムの協調的および非同期拡張のためのマルチエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-29T13:02:58Z) - Provable Multi-Objective Reinforcement Learning with Generative Models [98.19879408649848]
目的の選好から最適な政策を学習する単一政策 MORL の問題について検討する。
既存の方法は、多目的決定プロセスの正確な知識のような強い仮定を必要とする。
モデルベースエンベロップ値 (EVI) と呼ばれる新しいアルゴリズムを提案し, 包含された多目的$Q$学習アルゴリズムを一般化する。
論文 参考訳(メタデータ) (2020-11-19T22:35:31Z) - Theoretical Convergence of Multi-Step Model-Agnostic Meta-Learning [63.64636047748605]
一般的なマルチステップMAMLアルゴリズムに対して収束保証を提供するための新しい理論フレームワークを開発する。
特に,本研究の結果は,収束を保証するためには,内部段階のステップを逆比例して$N$の内段ステップを選択する必要があることを示唆している。
論文 参考訳(メタデータ) (2020-02-18T19:17:54Z) - Manifold for Machine Learning Assurance [9.594432031144716]
本稿では,機械学習(ML)システムにおいて,要求システムを暗黙的に記述した高次元学習データから抽出する機械学習手法を提案する。
その後、テストの精度測定、テスト入力生成、ターゲットのMLシステムの実行時の監視など、さまざまな品質保証タスクに利用されます。
予備実験により, 提案手法により, 試験精度が試験データの多様性を推し進めるとともに, テスト生成手法が故障を防止し, 現実的なテストケースを生み出すことが確認され, 実行時モニタリングは, 対象システムの出力の信頼性を独立的に評価する手段を提供する。
論文 参考訳(メタデータ) (2020-02-08T11:39:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。