論文の概要: Distilled Lifelong Self-Adaptation for Configurable Systems
- arxiv url: http://arxiv.org/abs/2501.00840v1
- Date: Wed, 01 Jan 2025 13:41:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:17:16.295659
- Title: Distilled Lifelong Self-Adaptation for Configurable Systems
- Title(参考訳): 構成可能なシステムのための蒸留寿命自己適応
- Authors: Yulong Ye, Tao Chen, Miqing Li,
- Abstract要約: システムに自己適応するフレームワークであるDLiSAを提案する。
生涯計画と蓄積した知識の動的利用を支援する。
最先端のアプローチよりもはるかに優れています。
- 参考スコア(独自算出の注目度): 5.716481441755875
- License:
- Abstract: Modern configurable systems provide tremendous opportunities for engineering future intelligent software systems. A key difficulty thereof is how to effectively self-adapt the configuration of a running system such that its performance (e.g., runtime and throughput) can be optimized under time-varying workloads. This unfortunately remains unaddressed in existing approaches as they either overlook the available past knowledge or rely on static exploitation of past knowledge without reasoning the usefulness of information when planning for self-adaptation. In this paper, we tackle this challenging problem by proposing DLiSA, a framework that self-adapts configurable systems. DLiSA comes with two properties: firstly, it supports lifelong planning, and thereby the planning process runs continuously throughout the lifetime of the system, allowing dynamic exploitation of the accumulated knowledge for rapid adaptation. Secondly, the planning for a newly emerged workload is boosted via distilled knowledge seeding, in which the knowledge is dynamically purified such that only useful past configurations are seeded when necessary, mitigating misleading information. Extensive experiments suggest that the proposed DLiSA significantly outperforms state-of-the-art approaches, demonstrating a performance improvement of up to 229% and a resource acceleration of up to 2.22x on generating promising adaptation configurations. All data and sources can be found at our repository: https://github.com/ideas-labo/dlisa.
- Abstract(参考訳): 現代の構成可能なシステムは、将来のインテリジェントなソフトウェアシステムのエンジニアリングに多大な機会を与えます。
その主な難しさは、実行中のシステムの構成を効果的に自己適応させることで、そのパフォーマンス(例えば、ランタイムとスループット)を時間的なワークロードで最適化できることです。
残念ながら、これは既存のアプローチでは適用可能な過去の知識を見落としているか、あるいは自己適応を計画する際の情報の有用性を推論することなく過去の知識を静的に活用しているため、未適応のままである。
本稿では,構成可能なシステムを自己適応するフレームワークであるDLiSAを提案することで,この問題に対処する。
DLiSAには2つの特性がある: まず、生涯計画をサポートし、それによって計画プロセスはシステムの寿命を通して継続的に実行され、蓄積した知識を動的に利用して迅速な適応を可能にする。
第2に、新たなワークロードの計画が蒸留知識のシードにより強化され、必要な場合に有用な過去の構成だけをシードするように、動的に知識を浄化し、誤った情報を緩和する。
大規模な実験により、提案されたDLiSAは最先端のアプローチを著しく上回り、性能は最大229%向上し、資源加速は最大2.22倍に向上した。
すべてのデータとソースは、私たちのリポジトリで確認できます。
関連論文リスト
- KBAlign: Efficient Self Adaptation on Specific Knowledge Bases [73.34893326181046]
大規模言語モデル(LLM)は通常、知識材料を瞬時に活用するために、検索強化世代に依存している。
本稿では,知識ベースを含む下流タスクへの効率的な適応を目的としたKBAlignを提案する。
提案手法は,Q&Aペアやリビジョン提案などの自己注釈付きデータを用いて反復学習を行い,モデルが知識内容を効率的に把握できるようにする。
論文 参考訳(メタデータ) (2024-11-22T08:21:03Z) - Mind the Interference: Retaining Pre-trained Knowledge in Parameter Efficient Continual Learning of Vision-Language Models [79.28821338925947]
ドメインクラスのインクリメンタル学習は現実的だが、継続的な学習シナリオである。
これらの多様なタスクに対処するために、事前訓練されたビジョンランゲージモデル(VLM)を導入し、その強力な一般化性を実現する。
事前訓練されたVLMにエンコードされた知識は、新しいタスクに適応する際に妨げられ、固有のゼロショット能力を損なう。
既存の手法では、膨大なオーバーヘッドを必要とする余分なデータセットに知識蒸留でVLMをチューニングすることで、この問題に対処している。
我々は、事前学習した知識を保持できるDIKI(Distributed-Aware Interference-free Knowledge Integration)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-07T12:19:37Z) - Adaptive Retention & Correction: Test-Time Training for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Future Aware Safe Active Learning of Time Varying Systems using Gaussian Processes [8.678546901075984]
本稿では,時間変動システムに適した安全な能動学習フレームワークを提案する。
時間認識型平均二乗予測誤差(T-IMSPE)法は,現在および将来の状態に対する後方分散を最小化する。
論文 参考訳(メタデータ) (2024-05-17T07:09:52Z) - Age-Based Scheduling for Mobile Edge Computing: A Deep Reinforcement
Learning Approach [58.911515417156174]
我々は情報時代(AoI)の新たな定義を提案し、再定義されたAoIに基づいて、MECシステムにおけるオンラインAoI問題を定式化する。
本稿では,システム力学の部分的知識を活用するために,PDS(Post-Decision State)を導入する。
また、PSDと深いRLを組み合わせることで、アルゴリズムの適用性、スケーラビリティ、堅牢性をさらに向上します。
論文 参考訳(メタデータ) (2023-12-01T01:30:49Z) - Evaluating Pretrained models for Deployable Lifelong Learning [15.56002252251323]
我々は、キュレートされたデータセット上で事前学習した、視覚強化学習のための展開可能な生涯学習システム(RL)を評価する。
本システムは,メモリフットプリントが小さく,計算資源も少ないため,多数のタスクを組み込むことができる。
論文 参考訳(メタデータ) (2023-11-22T19:04:05Z) - ALT: An Automatic System for Long Tail Scenario Modeling [15.76033166478158]
この問題に対処するために,ALTという自動システムを提案する。
各種自動機械学習関連技術を活用するなど,我々のシステムで使用されるアルゴリズムを改善するために,いくつかの取り組みがなされている。
システムを構築するには、システムの観点から多くの最適化が行われ、本質的なモジュールは武装している。
論文 参考訳(メタデータ) (2023-05-19T02:35:39Z) - A Domain-Agnostic Approach for Characterization of Lifelong Learning
Systems [128.63953314853327]
「生涯学習」システムには,1)継続的学習,2)伝達と適応,3)拡張性があります。
この一連のメトリクスは、様々な複雑な生涯学習システムの開発に役立てることができることを示す。
論文 参考訳(メタデータ) (2023-01-18T21:58:54Z) - Lifelong Learning Metrics [63.8376359764052]
DARPA Lifelong Learning Machines (L2M) プログラムは、人工知能(AI)システムの進歩を目指している。
本論文は、生涯学習シナリオを実行するエージェントのパフォーマンスの構築と特徴付けのためのフォーマリズムを概説する。
論文 参考訳(メタデータ) (2022-01-20T16:29:14Z) - Learning to Prompt for Continual Learning [34.609384246149325]
本研究は,テスト時にタスクの同一性にアクセスすることなく,より簡潔なメモリシステムのトレーニングを目的とした,連続学習のための新しいパラダイムを提案する。
本手法は,タスク遷移の異なるタスクを逐次学習するための事前学習モデル(L2P)を動的に学習する。
目的は、モデル予測を指示するプロンプトを最適化し、モデル可塑性を維持しながら、タスク不変およびタスク固有知識を明示的に管理することである。
論文 参考訳(メタデータ) (2021-12-16T06:17:07Z) - Formal Verification of Robustness and Resilience of Learning-Enabled State Estimation Systems [20.491263196235376]
我々は,ロボット工学の分野で広く利用されている学習可能な状態推定システム(LE-SESs)に注目した。
LE-SESを形式的検証の観点から検討し,システムモデルの満足度を決定する。
論文 参考訳(メタデータ) (2020-10-16T11:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。