論文の概要: Low-Regret and Low-Complexity Learning for Hierarchical Inference
- arxiv url: http://arxiv.org/abs/2508.08985v1
- Date: Tue, 12 Aug 2025 14:53:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.465777
- Title: Low-Regret and Low-Complexity Learning for Hierarchical Inference
- Title(参考訳): 階層型推論のための低regretと低複雑さ学習
- Authors: Sameep Chattopadhyay, Vinay Sutar, Jaya Prakash Champati, Sharayu Moharir,
- Abstract要約: HIは、ローカル推論が正しくない場合に限って、Remote-MLへの推論とオフロードにLocal-MLモデルを使用することで、レイテンシの低減、精度の向上、帯域幅使用量の削減を目指している。
本稿では,モデル信頼度尺度の高次関数としてローカルMLによる正しい推論の確率をモデル化し,HILに対する新しいアプローチを提案する。
両ポリシーが$O(log T)$のオーダー最適後悔を達成し,既存のHILポリシーを$O(T2/3)$後悔の保証で大幅に改善したことを実証する。
- 参考スコア(独自算出の注目度): 9.493398442214863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work focuses on Hierarchical Inference (HI) in edge intelligence systems, where a compact Local-ML model on an end-device works in conjunction with a high-accuracy Remote-ML model on an edge-server. HI aims to reduce latency, improve accuracy, and lower bandwidth usage by first using the Local-ML model for inference and offloading to the Remote-ML only when the local inference is likely incorrect. A critical challenge in HI is estimating the likelihood of the local inference being incorrect, especially when data distributions and offloading costs change over time -- a problem we term Hierarchical Inference Learning (HIL). We introduce a novel approach to HIL by modeling the probability of correct inference by the Local-ML as an increasing function of the model's confidence measure, a structure motivated by empirical observations but previously unexploited. We propose two policies, HI-LCB and HI-LCB-lite, based on the Upper Confidence Bound (UCB) framework. We demonstrate that both policies achieve order-optimal regret of $O(\log T)$, a significant improvement over existing HIL policies with $O(T^{2/3})$ regret guarantees. Notably, HI-LCB-lite has an $O(1)$ per-sample computational complexity, making it well-suited for deployment on devices with severe resource limitations. Simulations using real-world datasets confirm that our policies outperform existing state-of-the-art HIL methods.
- Abstract(参考訳): この研究はエッジインテリジェンスシステムにおける階層推論(HI)に焦点を当てており、エンドデバイス上のコンパクトなローカルMLモデルは、エッジサーバ上の高精度なリモートMLモデルと連携して動作する。
HIは、ローカル推論が正しくない場合に限って、Remote-MLへの推論とオフロードにLocal-MLモデルを使用することで、レイテンシの低減、精度の向上、帯域幅使用量の削減を目指している。
HIにおける重要な課題は、特にデータ分散とオフロードコストが時間とともに変化する場合、ローカル推論が正しくないことの可能性を見積もることである。
本研究では, モデル信頼度尺度の高次関数としてローカルMLによる正しい推論の確率をモデル化し, HILに対する新しいアプローチを提案する。
本稿では,上位信頼境界(UCB)に基づくHI-LCBとHI-LCB-liteの2つのポリシーを提案する。
両ポリシーが$O(\log T)$のオーダー最適後悔を達成し,$O(T^{2/3})$後悔の保証を伴う既存のHILポリシーを大幅に改善したことを実証する。
特にHI-LCB-liteは、サンプル当たりの計算複雑性が$O(1)$であり、厳しいリソース制限のあるデバイスにデプロイするのに適している。
実世界のデータセットを用いたシミュレーションでは、我々のポリシーが既存の最先端のHIL手法より優れていることが確認されている。
関連論文リスト
- Aligning LLMs on a Budget: Inference-Time Alignment with Heuristic Reward Models [23.37504394417425]
HIA(Heuristic-Guided Inference-time Alignment)は,軽量プロンプトを用いたチューニング不要でブラックボックス互換のアプローチである。
HIAは1つまたは2つの応答クエリの少ない低推論予算下で有効であることが判明した。
論文 参考訳(メタデータ) (2025-08-07T08:54:27Z) - AFLoRA: Adaptive Federated Fine-Tuning of Large Language Models with Resource-Aware Low-Rank Adaption [3.805501490912696]
フェデレートされた微調整は、分散データを使用して下流タスクにファンデーションモデルを適用するための有望なアプローチとして現れている。
大規模言語モデルのための適応的で軽量なファインチューニングフレームワークであるAFLoRAを提案する。
論文 参考訳(メタデータ) (2025-05-30T16:35:32Z) - Accelerating RL for LLM Reasoning with Optimal Advantage Regression [52.0792918455501]
本稿では,最適優位関数を直接近似する新しい2段階ポリシー最適化フレームワークを提案する。
A$*-POは、幅広い数学的推論ベンチマークで競合性能を達成する。
PPO、GRPO、REBELと比較して、トレーニング時間を最大2$times$、ピークメモリ使用率を30%以上削減する。
論文 参考訳(メタデータ) (2025-05-27T03:58:50Z) - Adapting GT2-FLS for Uncertainty Quantification: A Blueprint Calibration Strategy [2.8391355909797644]
不確実性定量化(UQ)は、信頼性の高いディープラーニング(DL)モデルを高スループットアプリケーションにデプロイするために不可欠である。
General Type-2 Fuzzy Logic Systems (GT2-FLSs) は、不確実性を捉えるために予測インターバル(PI)を提供するUQに有効であることが証明されている。
本研究では,GT2-FLSのブループリント校正戦略を提案する。
論文 参考訳(メタデータ) (2025-04-09T16:32:43Z) - Minimax and Communication-Efficient Distributed Best Subset Selection with Oracle Property [0.358439716487063]
大規模データの爆発はシングルマシンシステムの処理能力を上回っている。
分散推論への伝統的なアプローチは、高次元データセットにおいて真の疎性を達成するのにしばしば苦労する。
そこで本稿では,これらの問題に対処する2段階分散ベストサブセット選択アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-08-30T13:22:08Z) - HiRE: High Recall Approximate Top-$k$ Estimation for Efficient LLM
Inference [68.59839755875252]
HiREは2つの新しいコンポーネントから構成される: (i) (i) (i) (i) (i) (i) (i) (i) (i) (i) (ii) DA-TOP-$k$: 効率的なマルチデバイス近似トップ-k$演算子) (i) (i) (i) (i) (i) (i) (i) DA-TOP-$k$演算子) 。
我々は、10億のパラメータモデルにおいて、HiREがソフトマックスとフィードフォワード層の両方に適用され、ほぼ一致した事前学習と下流の精度を実現し、1台のTPUv5eデバイスで1.47Times$の推論遅延を高速化することを示した。
論文 参考訳(メタデータ) (2024-02-14T18:04:36Z) - A Nearly Optimal and Low-Switching Algorithm for Reinforcement Learning
with General Function Approximation [66.26739783789387]
我々は、強化学習のための新しいアルゴリズム、MQL-UCBを用いたモノトニックQ-Learningを提案する。
MQL-UCBは、$tildeO(dsqrtHK)$の最小限の後悔を実現する。
本研究は,非線形関数近似を用いたサンプル効率およびデプロイメント効率のよいQ-ラーニングの設計に重点を置いている。
論文 参考訳(メタデータ) (2023-11-26T08:31:57Z) - DFedADMM: Dual Constraints Controlled Model Inconsistency for
Decentralized Federated Learning [52.83811558753284]
分散学習(DFL)は、中央サーバーを捨て、分散通信ネットワークを確立する。
既存のDFL手法は依然として、局所的な矛盾と局所的な過度なオーバーフィッティングという2つの大きな課題に悩まされている。
論文 参考訳(メタデータ) (2023-08-16T11:22:36Z) - On the Model-Misspecification in Reinforcement Learning [9.864462523050843]
本稿では,強化学習におけるモデルの誤特定に対処するための統一的理論的枠組みを提案する。
本研究では,値に基づく手法とモデルに基づく手法が,局所的不特定誤差境界の下で頑健性を実現することを示す。
また、$zeta$の事前知識なしで同じ後悔の順序を達成できるアルゴリズム的フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-19T04:31:59Z) - Model-Based Multi-Agent RL in Zero-Sum Markov Games with Near-Optimal
Sample Complexity [67.02490430380415]
モデルに基づくMARLは、Nash平衡値(NE)を求めるために$tilde O(|S||B|(gamma)-3epsilon-2)$のサンプル複雑性を実現する。
また、アルゴリズムが報酬に依存しない場合、そのようなサンプル境界は最小値(対数因子まで)であり、アルゴリズムは報酬知識のない遷移サンプルを問合せする。
論文 参考訳(メタデータ) (2020-07-15T03:25:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。