論文の概要: MetaCLBench: Meta Continual Learning Benchmark on Resource-Constrained Edge Devices
- arxiv url: http://arxiv.org/abs/2504.00174v1
- Date: Mon, 31 Mar 2025 19:31:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:24:12.627614
- Title: MetaCLBench: Meta Continual Learning Benchmark on Resource-Constrained Edge Devices
- Title(参考訳): MetaCLBench: リソース制約のあるエッジデバイス上でのメタ連続学習ベンチマーク
- Authors: Sijia Li, Young D. Kwon, Lik-Hang Lee, Pan Hui,
- Abstract要約: エッジデバイスのためのエンドツーエンドのMeta-CLベンチマークフレームワークを開発し、システムオーバーヘッドを評価し、性能、計算コスト、メモリ要求間のトレードオフを調査する。
以上の結果から,Meta-CL法は画像とオーディオの両モードで新しいクラスを学習できるが,エッジデバイスでは計算とメモリのコストが著しく高いことが判明した。
また,デプロイ前のソースデータに基づく事前学習とメタトレーニングの手順により,メタCLの性能が向上することが判明した。
- 参考スコア(独自算出の注目度): 17.800367605774863
- License:
- Abstract: Meta-Continual Learning (Meta-CL) has emerged as a promising approach to minimize manual labeling efforts and system resource requirements by enabling Continual Learning (CL) with limited labeled samples. However, while existing methods have shown success in image-based tasks, their effectiveness remains unexplored for sequential time-series data from sensor systems, particularly audio inputs. To address this gap, we conduct a comprehensive benchmark study evaluating six representative Meta-CL approaches using three network architectures on five datasets from both image and audio modalities. We develop MetaCLBench, an end-to-end Meta-CL benchmark framework for edge devices to evaluate system overheads and investigate trade-offs among performance, computational costs, and memory requirements across various Meta-CL methods. Our results reveal that while many Meta-CL methods enable to learn new classes for both image and audio modalities, they impose significant computational and memory costs on edge devices. Also, we find that pre-training and meta-training procedures based on source data before deployment improve Meta-CL performance. Finally, to facilitate further research, we provide practical guidelines for researchers and machine learning practitioners implementing Meta-CL on resource-constrained environments and make our benchmark framework and tools publicly available, enabling fair evaluation across both accuracy and system-level metrics.
- Abstract(参考訳): メタ・コンチネンタル・ラーニング(Meta-Continual Learning,Meta-CL)は,ラベル付きサンプルを限定して継続学習(CL)を実現することで,手作業によるラベル付け作業とシステムリソース要件を最小化する,有望なアプローチとして登場した。
しかし、既存の手法では画像ベースのタスクに成功しているが、センサーシステム、特に音声入力からの時系列データについては、その有効性は明らかにされていない。
このギャップに対処するために、画像とオーディオの両モードから5つのデータセットに3つのネットワークアーキテクチャを用いて、6つのMeta-CLアプローチを総合的なベンチマークで評価する。
エッジデバイスのためのエンドツーエンドのMeta-CLベンチマークフレームワークであるMetaCLBenchを開発し、システムオーバーヘッドを評価し、様々なMeta-CLメソッド間の性能、計算コスト、メモリ要求間のトレードオフを調査する。
以上の結果から,Meta-CL法は画像とオーディオの両モードで新しいクラスを学習できるが,エッジデバイスでは計算とメモリのコストが著しく高いことが判明した。
また,デプロイ前のソースデータに基づく事前学習とメタトレーニングの手順により,メタCLの性能が向上することが判明した。
最後に,リソース制約のある環境においてMeta-CLを実装する研究者や機械学習実践者に実践的なガイドラインを提供し,ベンチマークフレームワークとツールを公開し,精度とシステムレベルのメトリクスを公平に評価できるようにする。
関連論文リスト
- Recent Advances of Multimodal Continual Learning: A Comprehensive Survey [64.82070119713207]
本研究は,マルチモーダル連続学習法に関する総合的な調査である。
既存のMMCLメソッドは,正規化ベース,アーキテクチャベース,リプレイベース,プロンプトベースという4つのカテゴリに分類される。
今後の研究・開発への道筋について論じる。
論文 参考訳(メタデータ) (2024-10-07T13:10:40Z) - Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning [61.8360232713375]
低リソースコモンセンス推論のための強化型マルチソースメタトランスファー学習フレームワーク(Meta-RTL)を提案する。
本稿では,メタトランスファー学習において,対象タスクに対するタスクの寄与を動的に推定する手法を提案する。
実験の結果,Meta-RTLは,強いベースラインと以前のタスク選択戦略を大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-27T18:22:22Z) - LifeLearner: Hardware-Aware Meta Continual Learning System for Embedded
Computing Platforms [17.031135153343502]
継続学習(CL)は、ユーザのパーソナライズや家庭用ロボットといったアプリケーションが、リアルタイムで学習し、コンテキストに適応することを可能にする。
LifeLearnerは、システムリソースを劇的に最適化するハードウェア対応のメタ学習システムである。
LifeLearnerは、Oracleのベースラインに比べて精度がわずか2.8%低下した、ほぼ最適のCLパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-19T20:39:35Z) - DAC-MR: Data Augmentation Consistency Based Meta-Regularization for
Meta-Learning [55.733193075728096]
メタ学習を改善するメタ知識情報メタラーニング(MKIML)フレームワークを提案する。
適切なメタレギュラー化(MR)目標を用いて,メタ知識をメタオブジェクトに統合する。
提案したDAC-MRは、ノイズ、スパース、あるいは利用できないメタデータのトレーニングタスクから、良好なパフォーマンスのメタモデルを学ぶことを期待している。
論文 参考訳(メタデータ) (2023-05-13T11:01:47Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - Information-Theoretic Generalization Bounds for Meta-Learning and
Applications [42.275148861039895]
メタ学習の主なパフォーマンス指標は、メタ一般化ギャップである。
本稿ではメタ一般化ギャップに関する新しい情報理論上界について述べる。
論文 参考訳(メタデータ) (2020-05-09T05:48:01Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z) - Structured Prediction for Conditional Meta-Learning [44.30857707980074]
構造化予測を用いた条件付きメタラーニングの新しい視点を提案する。
タスク適応型構造化メタラーニング(TASML: Task-Adaptive Structured Meta-learning)は,タスク固有目的関数を生成する基本的フレームワークである。
実験により,TASMLは既存のメタラーニングモデルの性能を向上し,ベンチマークデータセットの最先端性を上回った。
論文 参考訳(メタデータ) (2020-02-20T15:24:15Z) - Incremental Meta-Learning via Indirect Discriminant Alignment [118.61152684795178]
メタ学習のメタ学習段階において,段階的な学習の概念を発達させる。
我々のアプローチは、完全なメタトレーニングセットでモデルをトレーニングするのと比べて、テスト時に好適に機能する。
論文 参考訳(メタデータ) (2020-02-11T01:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。