論文の概要: OASI: Objective-Aware Surrogate Initialization for Multi-Objective Bayesian Optimization in TinyML Keyword Spotting
- arxiv url: http://arxiv.org/abs/2512.19739v1
- Date: Wed, 17 Dec 2025 17:32:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-24 19:17:49.614112
- Title: OASI: Objective-Aware Surrogate Initialization for Multi-Objective Bayesian Optimization in TinyML Keyword Spotting
- Title(参考訳): OASI: TinyML キーワードスポッティングにおける多目的ベイズ最適化の初期化
- Authors: Soumen Garai, Suman Samui,
- Abstract要約: 音声アシスタントは、キーワードスポッティング(KWS)を使用して、効率的でプライバシーに優しいアクティベーションを可能にする。
超低消費電力のTinyMLデバイス上で正確なKWSモデルを実現するには、精度とリソース制約の微妙なバランスが必要である。
本稿では,OASI(Objective-Aware Surrogate Initialization)を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Voice assistants utilize Keyword Spotting (KWS) to enable efficient, privacy-friendly activation. However, realizing accurate KWS models on ultra-low-power TinyML devices (often with less than $<2$ MB of flash memory) necessitates a delicate balance between accuracy with strict resource constraints. Multi-objective Bayesian Optimization (MOBO) is an ideal candidate for managing such a trade-off but is highly initialization-dependent, especially under the budgeted black-box setting. Existing methods typically fall back to naive, ad-hoc sampling routines (e.g., Latin Hypercube Sampling (LHS), Sobol sequences, or Random search) that are adapted to neither the Pareto front nor undergo rigorous statistical comparison. To address this, we propose Objective-Aware Surrogate Initialization (OASI), a novel initialization strategy that leverages Multi-Objective Simulated Annealing (MOSA) to generate a seed Pareto set of high-performing and diverse configurations that explicitly balance accuracy and model size. Evaluated in a TinyML KWS setting, OASI outperforms LHS, Sobol, and Random initialization, achieving the highest hypervolume (0.0627) and the lowest generational distance (0.0) across multiple runs, with only a modest increase in computation time (1934 s vs. $\sim$1500 s). A non-parametric statistical analysis using the Kruskal-Wallis test ($H = 5.40$, $p = 0.144$, $η^2 = 0.0007$) and Dunn's post-hoc test confirms OASI's superior consistency despite the non-significant overall difference with respect to the $α=0.05$ threshold.
- Abstract(参考訳): 音声アシスタントは、キーワードスポッティング(KWS)を使用して、効率的でプライバシーに優しいアクティベーションを可能にする。
しかし、超低消費電力のTinyMLデバイス上で正確なKWSモデルを実現するには、厳しいリソース制約による正確さの微妙なバランスが必要である。
マルチオブジェクトベイズ最適化(MOBO)は、このようなトレードオフを管理する理想的な候補であるが、特にブラックボックス設定の下では、非常に初期化に依存している。
既存の手法は、通常、パレートフロントにも厳密な統計比較にも適用されない、単純でアドホックなサンプリングルーチン(例えば、ラテンハイパーキューブサンプリング(LHS)、ソボルシーケンス(Sobol sequences)、ランダムサーチ(Random search))に回帰する。
そこで本研究では,OASI(Objective-Aware Surrogate Initialization)という,MOSA(Multi-Objective Simulated Annealing)を利用した新たな初期化戦略を提案する。
TinyML KWS設定で評価され、OASIはLHS、Sobol、Randomの初期化を上回り、最高ハイパーボリューム(0.0627)と最低世代距離(0.0)を複数の実行で達成し、計算時間(1934 s vs. $\sim$1500 s)はわずかに増加した。
Kruskal-Wallisテスト(H = 5.40$, $p = 0.144$, $η^2 = 0.0007$)とDunnのポストホックテストによる非パラメトリック統計分析は、OASIのα=0.05$しきい値に対する非重要な全体的な違いにもかかわらず、OASIの優れた一貫性を確認する。
関連論文リスト
- $\texttt{SPECS}$: Faster Test-Time Scaling through Speculative Drafts [55.231201692232894]
$textttSPECS$は、投機的デコードにインスパイアされた遅延対応のテスト時間スケーリングメソッドである。
我々の結果は、$textttSPECS$matchはビームサーチの精度を上回り、最大$sim$19.1%のレイテンシを削減していることを示している。
論文 参考訳(メタデータ) (2025-06-15T05:50:05Z) - Leveraging Coordinate Momentum in SignSGD and Muon: Memory-Optimized Zero-Order [39.25335214877435]
ダウンストリームタスクに事前訓練されたモデルを適用するには、微調整大型言語モデル(LLM)が不可欠である。
従来の一階述語アルゴリズムは、モデルサイズであまりスケールしない、禁止的なメモリと計算コストを発生させる。
メモリと計算効率の代替としてゼロオーダー(ZO)最適化法を提案する。
論文 参考訳(メタデータ) (2025-06-04T20:27:17Z) - FedSVD: Adaptive Orthogonalization for Private Federated Learning with LoRA [68.44043212834204]
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
Low-Rank Adaptation (LoRA) は、学習における言語モデルの効率的な微調整に広く用いられている。
論文 参考訳(メタデータ) (2025-05-19T07:32:56Z) - Transfer Q Star: Principled Decoding for LLM Alignment [105.89114186982972]
Transfer $Q*$は、ベースラインモデルを通してターゲット報酬$r$の最適値関数を推定する。
提案手法は, 従来のSoTA法で観測された準最適差を著しく低減する。
論文 参考訳(メタデータ) (2024-05-30T21:36:12Z) - Breaking the Sample Complexity Barrier to Regret-Optimal Model-Free
Reinforcement Learning [52.76230802067506]
漸進的強化学習における後悔を最小限に抑えるために,新しいモデルフリーアルゴリズムを提案する。
提案アルゴリズムは、2つのQ-ラーニングシーケンスの助けを借りて、初期設定された参照更新ルールを用いる。
初期の分散還元法の設計原理は、他のRL設定とは独立した関心を持つかもしれない。
論文 参考訳(メタデータ) (2021-10-09T21:13:48Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。