論文の概要: Budget Learning via Bracketing
- arxiv url: http://arxiv.org/abs/2004.06298v1
- Date: Tue, 14 Apr 2020 04:38:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 08:56:14.515146
- Title: Budget Learning via Bracketing
- Title(参考訳): ブラケットによる予算学習
- Authors: Aditya Gangrade, Durmus Alp Emre Acar, Venkatesh Saligrama
- Abstract要約: 予算学習の問題は、学習者の目標として、雲の使用を最小限に抑えつつ、精度の明確な損失を被ることである。
本稿ではブラケットの概念を用いてBL問題に対する新しい定式化を提案する。
我々は、実世界のデータセットに関する我々の理論を実証的に検証し、事前ゲーティングに基づく手法よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 50.085728094234476
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional machine learning applications in the mobile/IoT setting transmit
data to a cloud-server for predictions. Due to cost considerations (power,
latency, monetary), it is desirable to minimise device-to-server transmissions.
The budget learning (BL) problem poses the learner's goal as minimising use of
the cloud while suffering no discernible loss in accuracy, under the constraint
that the methods employed be edge-implementable.
We propose a new formulation for the BL problem via the concept of
bracketings. Concretely, we propose to sandwich the cloud's prediction, $g,$
via functions $h^-, h^+$ from a `simple' class so that $h^- \le g \le h^+$
nearly always. On an instance $x$, if $h^+(x)=h^-(x)$, we leverage local
processing, and bypass the cloud. We explore theoretical aspects of this
formulation, providing PAC-style learnability definitions; associating the
notion of budget learnability to approximability via brackets; and giving
VC-theoretic analyses of their properties. We empirically validate our theory
on real-world datasets, demonstrating improved performance over prior gating
based methods.
- Abstract(参考訳): モバイル/IoT設定における従来の機械学習アプリケーションは、予測のためにデータをクラウドサーバに送信する。
コスト考慮(電力、レイテンシ、金銭)のため、デバイス間通信を最小化することが望ましい。
予算学習(BL)問題は、学習者がクラウドの使用を最小限に抑えつつ、精度を損なうことなく、採用する手法がエッジ実装可能であるという制約のもとに、学習者の目標を形作るものである。
本稿ではブラケットの概念を用いてBL問題に対する新しい定式化を提案する。
具体的には、クラウドの予測である$g,$を、関数 $h^-, h^+$ を `simple' クラスから切り離して、$h^- \le g \le h^+$ がほぼ常に成り立つようにすることを提案する。
例えば$x$の場合、$h^+(x)=h^-(x)$の場合、ローカル処理を利用し、クラウドをバイパスする。
我々は,この定式化の理論的側面を探求し,PACスタイルの学習可能性の定義を提供し,ブラケットによる予算学習可能性の概念と近似可能性の関連付けを行い,その特性をVC理論で分析する。
実世界のデータセットに関する我々の理論を実証的に検証し、事前ゲーティングに基づく手法よりも優れた性能を示す。
関連論文リスト
- Contextual Linear Optimization with Bandit Feedback [35.692428244561626]
文脈線形最適化(CLO)は、ランダムコスト係数の不確実性を低減するために予測的文脈特徴を用いる。
我々は,帯域幅フィードバックを用いたCLOのためのオフライン学習アルゴリズムのクラスについて検討する。
IERMに対する高速な後悔境界を示し、不特定モデルクラスと最適化推定の柔軟な選択を可能にする。
論文 参考訳(メタデータ) (2024-05-26T13:27:27Z) - Fast and Simple Explainability for Point Cloud Networks [4.013156524547072]
本稿では,ポイントクラウドデータのための高速で簡単なAI(XAI)手法を提案する。
トレーニングされたネットワークダウンストリームタスクに関して、ポイントワイズの重要性を計算します。
論文 参考訳(メタデータ) (2024-03-12T14:51:23Z) - Towards Understanding and Improving GFlowNet Training [71.85707593318297]
本稿では,学習したサンプリング分布と目標報酬分布を比較するための効率的な評価手法を提案する。
本稿では,高解像度のx$,相対的エッジフローポリシーのパラメータ化,新しい軌道バランス目標を提案する。
論文 参考訳(メタデータ) (2023-05-11T22:50:41Z) - Chaos is a Ladder: A New Theoretical Understanding of Contrastive
Learning via Augmentation Overlap [64.60460828425502]
コントラスト学習の下流性能に関する新たな保証を提案する。
我々の新しい理論は、攻撃的なデータ強化の下で、異なるクラス内サンプルのサポートがより重なり合うという知見に基づいている。
本稿では、下流の精度とよく一致した教師なしモデル選択距離ARCを提案する。
論文 参考訳(メタデータ) (2022-03-25T05:36:26Z) - The Fundamental Price of Secure Aggregation in Differentially Private
Federated Learning [34.630300910399036]
我々は、$varepsilon$ Central DPの下で最高の精度を得るために必要な基本的な通信コストを特徴付ける。
我々の結果は、$tildeOleft( min(n2varepsilon2, d) right)$ bits per client が十分かつ必要であることを示している。
これにより、最先端のSecAgg分散DPスキームに対して大幅に改善される。
論文 参考訳(メタデータ) (2022-03-07T22:56:09Z) - Provably Efficient Reinforcement Learning for Discounted MDPs with
Feature Mapping [99.59319332864129]
本稿では,割引決定(MDP)のための強化学習について検討する。
本稿では,特徴写像を利用した新しいアルゴリズムを提案し,$tilde O(dsqrtT/ (1-gamma)2)$ regretを求める。
以上の結果から,提案した強化学習アルゴリズムは,最大1-γ-0.5$の係数でほぼ最適であることが示唆された。
論文 参考訳(メタデータ) (2020-06-23T17:08:54Z) - The Information Bottleneck Problem and Its Applications in Machine
Learning [53.57797720793437]
近年,機械学習システムの推論能力が急上昇し,社会の様々な側面において重要な役割を担っている。
情報ボトルネック(IB)理論は、ディープラーニング(DL)システムを分析するための大胆な情報理論パラダイムとして登場した。
本チュートリアルでは,この抽象原理の情報理論的起源と最近のDLへの影響について考察する。
論文 参考訳(メタデータ) (2020-04-30T16:48:51Z) - Towards Deep Learning Models Resistant to Large Perturbations [0.0]
敵対的堅牢性は、機械学習アルゴリズムの必須特性であることが証明されている。
とよばれるアルゴリズムは、大きくても合理的で摂動のマグニチュードが与えられたディープニューラルネットワークのトレーニングに失敗することを示した。
論文 参考訳(メタデータ) (2020-03-30T12:03:09Z) - A Theory of Usable Information Under Computational Constraints [103.5901638681034]
本稿では,複雑なシステムにおける情報推論のための新しいフレームワークを提案する。
我々の基礎はシャノンの情報理論の変分拡張に基づいている。
計算制約を組み込むことで,データから$mathcalV$-informationを確実に推定できることを示す。
論文 参考訳(メタデータ) (2020-02-25T06:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。