論文の概要: MetaDSE: A Few-shot Meta-learning Framework for Cross-workload CPU Design Space Exploration
- arxiv url: http://arxiv.org/abs/2504.13568v1
- Date: Fri, 18 Apr 2025 09:11:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-28 16:33:30.534879
- Title: MetaDSE: A Few-shot Meta-learning Framework for Cross-workload CPU Design Space Exploration
- Title(参考訳): MetaDSE: クロスワークロードCPU設計スペース探索のためのメタラーニングフレームワーク
- Authors: Runzhen Xue, Hao Wu, Mingyu Yan, Ziheng Xiao, Xiaochun Ye, Dongrui Fan,
- Abstract要約: クロスワークロード設計空間探索(DSE)はCPUアーキテクチャ設計において重要である。
モデルに依存しないメタラーニングを活用することで、MetaDSEは新しいターゲットワークロードに迅速に適応する。
その結果,MetaDSEは最先端技術と比較して予測誤差を44.3%削減できることがわかった。
- 参考スコア(独自算出の注目度): 10.00916836342265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-workload design space exploration (DSE) is crucial in CPU architecture design. Existing DSE methods typically employ the transfer learning technique to leverage knowledge from source workloads, aiming to minimize the requirement of target workload simulation. However, these methods struggle with overfitting, data ambiguity, and workload dissimilarity. To address these challenges, we reframe the cross-workload CPU DSE task as a few-shot meta-learning problem and further introduce MetaDSE. By leveraging model agnostic meta-learning, MetaDSE swiftly adapts to new target workloads, greatly enhancing the efficiency of cross-workload CPU DSE. Additionally, MetaDSE introduces a novel knowledge transfer method called the workload-adaptive architectural mask algorithm, which uncovers the inherent properties of the architecture. Experiments on SPEC CPU 2017 demonstrate that MetaDSE significantly reduces prediction error by 44.3\% compared to the state-of-the-art. MetaDSE is open-sourced and available at this \href{https://anonymous.4open.science/r/Meta_DSE-02F8}{anonymous GitHub.}
- Abstract(参考訳): クロスワークロード設計空間探索(DSE)はCPUアーキテクチャ設計において重要である。
既存のDSEメソッドは、典型的には、ソースワークロードからの知識を活用するために転送学習技術を使用し、ターゲットのワークロードシミュレーションの要件を最小限に抑えることを目的としている。
しかし、これらの手法は過度な適合、データのあいまいさ、ワークロードの相違に悩まされる。
これらの課題に対処するため、クロスワークロードのCPU DSEタスクを数ショットのメタ学習問題として再構成し、さらにメタDSEを導入する。
モデルに依存しないメタラーニングを活用することで、MetaDSEは新しいターゲットワークロードに迅速に適応し、クロスワークロードCPUDSEの効率を大幅に向上する。
さらに、MetaDSEは、ワークロード適応型アーキテクチャマスクアルゴリズムと呼ばれる新しい知識伝達手法を導入し、アーキテクチャの性質を明らかにする。
SPEC CPU 2017の実験では、MetaDSEは最先端と比較して予測誤差を44.3倍に削減している。
MetaDSEは、この \href{https://anonymous.4open.science/r/Meta_DSE-02F8}{anonymous GitHubで公開されている。
※
関連論文リスト
- Meta-RTL: Reinforcement-Based Meta-Transfer Learning for Low-Resource Commonsense Reasoning [61.8360232713375]
低リソースコモンセンス推論のための強化型マルチソースメタトランスファー学習フレームワーク(Meta-RTL)を提案する。
本稿では,メタトランスファー学習において,対象タスクに対するタスクの寄与を動的に推定する手法を提案する。
実験の結果,Meta-RTLは,強いベースラインと以前のタスク選択戦略を大幅に上回ることがわかった。
論文 参考訳(メタデータ) (2024-09-27T18:22:22Z) - EMPL: A novel Efficient Meta Prompt Learning Framework for Few-shot Unsupervised Domain Adaptation [22.586094394391747]
本稿では,FS-UDAのためのメタプロンプト学習フレームワークを提案する。
このフレームワークでは、事前訓練されたCLIPモデルを機能学習ベースモデルとして使用しています。
5-way 1-shotでは少なくとも15.4%,5-way 5-shotでは8.7%の大幅な改善が得られた。
論文 参考訳(メタデータ) (2024-07-04T17:13:06Z) - Modality-Agnostic Self-Supervised Learning with Meta-Learned Masked
Auto-Encoder [61.7834263332332]
我々はMasked Auto-Encoder (MAE) を統一されたモダリティに依存しないSSLフレームワークとして開発する。
メタラーニングは,MAEをモダリティに依存しない学習者として解釈する鍵として論じる。
本実験は,Modality-Agnostic SSLベンチマークにおけるMetaMAEの優位性を示す。
論文 参考訳(メタデータ) (2023-10-25T03:03:34Z) - Dynamic Kernel Selection for Improved Generalization and Memory
Efficiency in Meta-learning [9.176056742068813]
圧縮CNNモデルを設計するためのタスク固有の動的カーネル選択戦略であるMetaDOCKを提案する。
提案手法は,各タスクごとにネットワークのすべてのカーネルが必要なわけではない,という仮説に基づいている。
提案手法を用いて得られた大容量CNNモデルの同一推定予算に対して,従来のCNNモデルよりも常に優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2022-06-03T17:09:26Z) - Warm-starting DARTS using meta-learning [4.035753155957698]
ニューラルネットワークサーチ(NAS)は、自動機械学習(AutoML)の分野で大きな可能性を秘めている。
微分可能アーキテクチャサーチ(DARTS)のためのメタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-12T20:40:26Z) - Across-Task Neural Architecture Search via Meta Learning [1.225795556154044]
Adequate labeled data and expensive compute resources is the prequisites for the success of Neural Architecture search (NAS)
限られた計算リソースとデータを持つメタ学習シナリオにNASを適用するのは難しい。
本稿では、勾配に基づくメタラーニングとEAに基づくNASを組み合わせることで、タスク間ニューラルネットワーク探索(AT-NAS)を提案する。
論文 参考訳(メタデータ) (2021-10-12T09:07:33Z) - MetaPerturb: Transferable Regularizer for Heterogeneous Tasks and
Architectures [61.73533544385352]
本稿ではメタパーターブ(MetaPerturb)というトランスファー可能な摂動モデルを提案する。
MetaPerturbは、レイヤやタスクにまたがる多様な分散を訓練したセット関数であるため、異種タスクやアーキテクチャを一般化することができる。
論文 参考訳(メタデータ) (2020-06-13T02:54:59Z) - iTAML: An Incremental Task-Agnostic Meta-learning Approach [123.10294801296926]
人間は経験が成長するにつれて、新しい知識を継続的に学ぶことができる。
ディープニューラルネットワークにおける以前の学習は、新しいタスクでトレーニングされたときにすぐに消えてしまう可能性がある。
遭遇した全てのタスク間の平衡を維持するために,新しいメタラーニング手法を導入する。
論文 参考訳(メタデータ) (2020-03-25T21:42:48Z) - Meta-Learning across Meta-Tasks for Few-Shot Learning [107.44950540552765]
我々は,メタ・ラーニングを支援するために,メタ・タスク間の関係を活用すべきであり,これらのタスクを戦略的にサンプリングするべきだと論じている。
2種類のメタタスクペアで定義された関係を考察し、それらを活用するための異なる戦略を提案する。
論文 参考訳(メタデータ) (2020-02-11T09:25:13Z) - Automated Relational Meta-learning [95.02216511235191]
本稿では,クロスタスク関係を自動的に抽出し,メタ知識グラフを構築する自動リレーショナルメタ学習フレームワークを提案する。
我々は,2次元玩具の回帰と少数ショット画像分類に関する広範な実験を行い,ARMLが最先端のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-01-03T07:02:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。