論文の概要: Hierarchical Partitioning Forecaster
- arxiv url: http://arxiv.org/abs/2305.13063v1
- Date: Mon, 22 May 2023 14:25:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 15:38:21.241917
- Title: Hierarchical Partitioning Forecaster
- Title(参考訳): 階層分割予測器
- Authors: Christopher Mattern
- Abstract要約: 我々はシーケンシャルな予測のための新しいアルゴリズム群、階層的分割予測(HPF)を考える。
私たちのゴールは、強力なモデルクラスに対して魅力的な理論的、後悔の保証を提供することです。
- 参考スコア(独自算出の注目度): 0.571097144710995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we consider a new family of algorithms for sequential
prediction, Hierarchical Partitioning Forecasters (HPFs). Our goal is to
provide appealing theoretical - regret guarantees on a powerful model class -
and practical - empirical performance comparable to deep networks - properties
at the same time. We built upon three principles: hierarchically partitioning
the feature space into sub-spaces, blending forecasters specialized to each
sub-space and learning HPFs via local online learning applied to these
individual forecasters. Following these principles allows us to obtain regret
guarantees, where Constant Partitioning Forecasters (CPFs) serve as competitor.
A CPF partitions the feature space into sub-spaces and predicts with a fixed
forecaster per sub-space. Fixing a hierarchical partition $\mathcal H$ and
considering any CPF with a partition that can be constructed using elements of
$\mathcal H$ we provide two guarantees: first, a generic one that unveils how
local online learning determines regret of learning the entire HPF online;
second, a concrete instance that considers HPF with linear forecasters (LHPF)
and exp-concave losses where we obtain $O(k \log T)$ regret for sequences of
length $T$ where $k$ is a measure of complexity for the competing CPF. Finally,
we provide experiments that compare LHPF to various baselines, including state
of the art deep learning models, in precipitation nowcasting. Our results
indicate that LHPF is competitive in various settings.
- Abstract(参考訳): 本研究では,階層的分割予測(HPF)という,逐次予測のための新しいアルゴリズム群を検討する。
私たちの目標は、強力なモデルクラスと実践的な、ディープネットワークに匹敵する実証的パフォーマンスを同時に提供することです。
特徴空間をサブスペースに階層的に分割し、各サブスペースに特化した予測器をブレンドし、各予測器に適用されるローカルオンライン学習を通じてHPFを学習する。
これらの原則に従うことで、Constant Partitioning Forecasters(CPF)が競合として機能する、後悔の保証を得ることができます。
CPFは特徴空間を部分空間に分割し、部分空間毎に固定予測器で予測する。
Fixing a hierarchical partition $\mathcal H$ and considering any CPF with a partition that can be constructed using elements of $\mathcal H$ we provide two guarantees: first, a generic one that unveils how local online learning determines regret of learning the entire HPF online; second, a concrete instance that considers HPF with linear forecasters (LHPF) and exp-concave losses where we obtain $O(k \log T)$ regret for sequences of length $T$ where $k$ is a measure of complexity for the competing CPF.
最後に,最先端のディープラーニングモデルを含む,lhpfと各種ベースラインを比較した降水ナキャスティング実験を行う。
以上の結果から, LHPFは様々な環境において競争力を持っていることが示唆された。
関連論文リスト
- Smoothed Analysis for Learning Concepts with Low Intrinsic Dimension [17.485243410774814]
教師付き学習の伝統的なモデルでは、学習者の目標は、あるクラスから最も適した概念の競争的($epsilon$以内)な仮説を出力することである。
学習者が最高の無知としか競合しないスムーズな分析フレームワークを導入する。
時間内に$k$-halfspacesの交点を前向きに学習する最初のアルゴリズムを得る。
論文 参考訳(メタデータ) (2024-07-01T04:58:36Z) - Parameter-efficient Fine-tuning in Hyperspherical Space for Open-vocabulary Semantic Segmentation [79.66299178949257]
オープンボキャブラリセマンティックセグメンテーションは、画像中の各ピクセルに任意のテキスト記述をラベル付けしようとする。
視覚言語基盤モデル、特にCLIPは、オープン語彙能力を取得するための強力なツールとして登場した。
H-CLIPは、CLIPの総パラメータの約4%を更新するだけで、新しいSOTAオープン語彙セマンティックセマンティックセマンティクス結果を達成する。
論文 参考訳(メタデータ) (2024-05-29T07:41:34Z) - Rethinking Few-shot 3D Point Cloud Semantic Segmentation [62.80639841429669]
本稿では,FS-PCSによる3Dポイント・クラウドセマンティックセマンティックセグメンテーションについて再検討する。
我々は、最先端の2つの重要な問題、前景の漏洩とスパースポイントの分布に焦点をあてる。
これらの問題に対処するために、新しいベンチマークを構築するための標準化されたFS-PCS設定を導入する。
論文 参考訳(メタデータ) (2024-03-01T15:14:47Z) - Inferring Dynamic Networks from Marginals with Iterative Proportional Fitting [57.487936697747024]
実世界のデータ制約から生じる一般的なネットワーク推論問題は、その時間集約された隣接行列から動的ネットワークを推論する方法である。
本稿では,ネットワーク構造に対する最小限の変更の下でIPFの収束を保証するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-28T20:24:56Z) - ParsNets: A Parsimonious Orthogonal and Low-Rank Linear Networks for
Zero-Shot Learning [22.823915322924304]
本稿では,ParsNetsと呼ばれるゼロショット学習(ZSL)において,既存の深層モデルに対して同等あるいはさらに優れた性能を実現するために,並列かつ効率的な設計手法を提案する。
局所線型性の一般化を容易にするため,クラス内サンプルに低ランク制約を課し,クラス間サンプルに高ランク制約を課すことにより,学習特徴量に対する最大マージン幾何学を構築した。
ZSLにおけるモデルの適応性と相反するオーバー/アンダーフィッティングを強化するために、サンプルワイドインジケータのセットを使用して、これらのベース線形ネットワークからスパースサブセットを選択して複合を形成する。
論文 参考訳(メタデータ) (2023-12-15T11:32:11Z) - Submodel Partitioning in Hierarchical Federated Learning: Algorithm
Design and Convergence Analysis [15.311309249848739]
階層学習(FL)は、従来の「星のトポロジー」アーキテクチャに基づく連合学習(FL)よりも有望なスケーラビリティを実証している。
本稿では,IoT(Internet of Things)の独立したサブトレーニングを提案する。
HISTの背景にある主要なアイデアは、モデル計算のグローバルバージョンであり、グローバルモデルを各ラウンドの非結合サブモデルに分割し、異なるセルに分散する。
論文 参考訳(メタデータ) (2023-10-27T04:42:59Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Subspace Learning Machine (SLM): Methodology and Performance [28.98486923400986]
サブスペースラーニングマシン(SLM)は、フィードフォワード多層パーセプトロン(FF-MLP)、決定木(DT)、エクストリームラーニングマシン(ELM)にインスパイアされた新しい分類モデルである。
SLMはまず、各入力特徴の識別力を調べることにより、識別された部分空間である$S0$を識別する。
S0$の関数の確率的射影を使って1D部分空間を生成し、それぞれの部分空間に最適な分割を求める。
論文 参考訳(メタデータ) (2022-05-11T06:44:51Z) - Partition of unity networks: deep hp-approximation [0.0]
本稿では,これらの要素を直接アーキテクチャに組み込む統一ネットワーク(POUnets)の分割を提案する。
POUnets は滑らかな関数に対して hp-収束をもたらし、多くの不連続性を持つピースワイズ関数を一貫して上回る。
論文 参考訳(メタデータ) (2021-01-27T08:26:11Z) - Joint and Progressive Subspace Analysis (JPSA) with Spatial-Spectral
Manifold Alignment for Semi-Supervised Hyperspectral Dimensionality Reduction [48.73525876467408]
本稿では,超スペクトル部分空間解析のための新しい手法を提案する。
この手法はジョイント・アンド・プログレッシブ・サブスペース分析(JPSA)と呼ばれる。
2つの広帯域超スペクトルデータセットに対して提案したJPSAの優位性と有効性を示す実験を行った。
論文 参考訳(メタデータ) (2020-09-21T16:29:59Z) - Learning Halfspaces with Tsybakov Noise [50.659479930171585]
テュバコフ雑音の存在下でのハーフスペースの学習可能性について検討する。
真半空間に関して誤分類誤差$epsilon$を達成するアルゴリズムを与える。
論文 参考訳(メタデータ) (2020-06-11T14:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。