論文の概要: Inference Offloading for Cost-Sensitive Binary Classification at the Edge
- arxiv url: http://arxiv.org/abs/2509.15674v1
- Date: Fri, 19 Sep 2025 06:49:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.0358
- Title: Inference Offloading for Cost-Sensitive Binary Classification at the Edge
- Title(参考訳): エッジにおけるコスト感性二分分類のための推定オフロード
- Authors: Vishnu Narayanan Moothedath, Umang Agarwal, Umeshraja N, James Richard Gross, Jaya Prakash Champati, Sharayu Moharir,
- Abstract要約: 我々は、偽陰性が偽陽性よりもコストがかかるエッジインテリジェンスシステムにおける二項分類問題に焦点を当てる。
本稿では,局所モデルの信頼度スコアにしきい値のペアを連続的に適応させるオンライン学習フレームワークを提案する。
より一般的な非校正モデルの場合、オンラインの2次元階層的推論ポリシーであるH2T2を導入する。
- 参考スコア(独自算出の注目度): 3.6995608446730794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on a binary classification problem in an edge intelligence system where false negatives are more costly than false positives. The system has a compact, locally deployed model, which is supplemented by a larger, remote model, which is accessible via the network by incurring an offloading cost. For each sample, our system first uses the locally deployed model for inference. Based on the output of the local model, the sample may be offloaded to the remote model. This work aims to understand the fundamental trade-off between classification accuracy and these offloading costs within such a hierarchical inference (HI) system. To optimize this system, we propose an online learning framework that continuously adapts a pair of thresholds on the local model's confidence scores. These thresholds determine the prediction of the local model and whether a sample is classified locally or offloaded to the remote model. We present a closed-form solution for the setting where the local model is calibrated. For the more general case of uncalibrated models, we introduce H2T2, an online two-threshold hierarchical inference policy, and prove it achieves sublinear regret. H2T2 is model-agnostic, requires no training, and learns in the inference phase using limited feedback. Simulations on real-world datasets show that H2T2 consistently outperforms naive and single-threshold HI policies, sometimes even surpassing offline optima. The policy also demonstrates robustness to distribution shifts and adapts effectively to mismatched classifiers.
- Abstract(参考訳): 我々は、偽陰性が偽陽性よりもコストがかかるエッジインテリジェンスシステムにおける二項分類問題に焦点を当てる。
システムは、コンパクトでローカルにデプロイされたモデルを持ち、より大きなリモートモデルによって補われ、オフロードコストを発生させることでネットワークを介してアクセスすることができる。
各サンプルについては、まずローカルにデプロイされたモデルを推論に使用します。
ローカルモデルの出力に基づいて、サンプルをリモートモデルにオフロードすることもできる。
本研究の目的は,階層的推論(HI)システムにおいて,分類精度とこれらのオフロードコストの基本的なトレードオフを理解することである。
このシステムを最適化するために,局所モデルの信頼度スコアにしきい値のペアを連続的に適応させるオンライン学習フレームワークを提案する。
これらのしきい値は、局所モデルの予測と、サンプルが局所的に分類されるか、リモートモデルにオフロードされるかを決定する。
局所モデルを校正した設定のための閉形式解を提案する。
より一般的な非校正モデルの場合、オンラインの2次元階層的推論ポリシーであるH2T2を導入し、サブ線形後悔を実現する。
H2T2はモデルに依存しず、トレーニングを必要とせず、限られたフィードバックを使って推論フェーズで学習する。
実世界のデータセットのシミュレーションでは、H2T2はナイーブなHIポリシーよりも一貫して優れており、時にはオフラインのオプティマを超えている。
このポリシーはまた、分布シフトに対する堅牢性を示し、ミスマッチした分類器に効果的に適応する。
関連論文リスト
- Low-Regret and Low-Complexity Learning for Hierarchical Inference [5.465630931093902]
HIは、ローカル推論が正しくない場合に限って、Remote-MLへの推論とオフロードにLocal-MLモデルを使用することで、レイテンシの低減、精度の向上、帯域幅使用量の削減を目指している。
本稿では,モデル信頼度尺度の高次関数としてローカルMLによる正しい推論の確率をモデル化し,HILに対する新しいアプローチを提案する。
両ポリシーが$O(log T)$のオーダー最適後悔を達成し,既存のHILポリシーを$O(T2/3)$後悔の保証で大幅に改善したことを実証する。
論文 参考訳(メタデータ) (2025-08-12T14:53:54Z) - Towards Robust and Efficient Cloud-Edge Elastic Model Adaptation via Selective Entropy Distillation [56.79064699832383]
Cloud-Edge Elastic Model Adaptation (CEMA)パラダイムを確立し、エッジモデルが前方伝播のみを実行するようにします。
CEMAでは,通信負担を軽減するため,不要なサンプルをクラウドにアップロードすることを避けるための2つの基準を考案した。
論文 参考訳(メタデータ) (2024-02-27T08:47:19Z) - Deep autoregressive density nets vs neural ensembles for model-based
offline reinforcement learning [2.9158689853305693]
本稿では、利用可能なデータからシステムダイナミクスを推定し、仮想モデルロールアウトにおけるポリシー最適化を行うモデルベース強化学習アルゴリズムについて考察する。
このアプローチは、実際のシステムで破滅的な失敗を引き起こす可能性のあるモデルエラーを悪用することに対して脆弱である。
D4RLベンチマークの1つのよく校正された自己回帰モデルにより、より良い性能が得られることを示す。
論文 参考訳(メタデータ) (2024-02-05T10:18:15Z) - Discrete Diffusion Modeling by Estimating the Ratios of the Data Distribution [67.9215891673174]
離散空間に対するスコアマッチングを自然に拡張する新たな損失として,スコアエントロピーを提案する。
標準言語モデリングタスク上で,Score Entropy Discrete Diffusionモデルをテストする。
論文 参考訳(メタデータ) (2023-10-25T17:59:12Z) - Dual Student Networks for Data-Free Model Stealing [79.67498803845059]
主な課題は、パラメータにアクセスせずにターゲットモデルの勾配を推定し、多様なトレーニングサンプルを生成することである。
そこで本研究では,2人の学生が左右対称に学習し,学生が反対するサンプルを生成するための基準を提案する。
我々の新しい最適化フレームワークは、目標モデルのより正確な勾配推定と、ベンチマーク分類データセットの精度向上を提供する。
論文 参考訳(メタデータ) (2023-09-18T18:11:31Z) - Fairness Uncertainty Quantification: How certain are you that the model
is fair? [13.209748908186606]
現代の機械学習において、グラディエント・Descent(SGD)型アルゴリズムは、学習されたモデルがランダムであることを示す訓練アルゴリズムとして、ほぼ常に使用される。
本研究では,グループフェアネスを意識した信頼区間(CI)、特にDI(Disparate Impact)とDM(Disparate Mistreatment)を意識した線形二項分類器をオンラインSGD型アルゴリズムを用いてトレーニングする場合に,不公平性テストのための信頼区間(CI)を提供する。
論文 参考訳(メタデータ) (2023-04-27T04:07:58Z) - Higher Performance Visual Tracking with Dual-Modal Localization [106.91097443275035]
Visual Object Tracking (VOT)は、堅牢性と正確性の両方に同期性を必要とする。
ONRによるロバストなローカリゼーション抑制器とOFCによるターゲットセンターへの正確なローカリゼーションにより、ターゲットローカリゼーションのためのデュアルモーダルフレームワークを提案します。
論文 参考訳(メタデータ) (2021-03-18T08:47:56Z) - Autocalibration and Tweedie-dominance for Insurance Pricing with Machine
Learning [0.0]
逸脱の最小化には, 下位部分モーメントの重み付き差分の積分と, 特定のスケールで測定されたバイアスとのトレードオフが伴うことが示された。
バイアスを補正する新しい手法は、分析にさらに局所的なGLMステップを追加する。
凸順序は、競合するモデルを比較する自然なツールであるように見える。
論文 参考訳(メタデータ) (2021-03-05T12:40:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。