論文の概要: Online learning with exponential weights in metric spaces
- arxiv url: http://arxiv.org/abs/2103.14389v1
- Date: Fri, 26 Mar 2021 10:46:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-29 18:55:20.259679
- Title: Online learning with exponential weights in metric spaces
- Title(参考訳): 計量空間における指数重み付きオンライン学習
- Authors: Quentin Paris
- Abstract要約: 本稿では,指数重みを用いた計量空間におけるオンライン学習の問題に対処する。
指数重み付き平均予測器の分析をより抽象的な枠組みに拡張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses the problem of online learning in metric spaces using
exponential weights. We extend the analysis of the exponentially weighted
average forecaster, traditionally studied in a Euclidean settings, to a more
abstract framework. Our results rely on the notion of barycenters, a suitable
version of Jensen's inequality and a synthetic notion of lower curvature bound
in metric spaces known as the measure contraction property. We also adapt the
online-to-batch conversion principle to apply our results to a statistical
learning framework.
- Abstract(参考訳): 本稿では,指数重みを用いた計量空間におけるオンライン学習の問題に対処する。
我々は,従来ユークリッド環境で研究されてきた指数重み付け平均予測器の解析を,より抽象的な枠組みに拡張する。
結果は、バリー中心の概念、イェンセンの不等式の適切なバージョン、測度収縮特性として知られる計量空間における下曲率の合成的な概念に依拠する。
また,オンライン・バッチ変換の原理を応用し,統計的学習フレームワークに適用する。
関連論文リスト
- Revisiting Dynamic Evaluation: Online Adaptation for Large Language
Models [88.47454470043552]
我々は、動的評価(動的評価)としても知られる、テスト時の言語モデルのパラメータをオンラインで微調整する問題を考察する。
オンライン適応はパラメータを時間的に変化する状態に変換し、メモリを重み付けしたコンテキスト長拡張の形式を提供する。
論文 参考訳(メタデータ) (2024-03-03T14:03:48Z) - Enriching Disentanglement: From Logical Definitions to Quantitative Metrics [59.12308034729482]
複雑なデータにおける説明的要素を遠ざけることは、データ効率の表現学習にとって有望なアプローチである。
論理的定義と量的指標の関連性を確立し, 理論的に根ざした絡み合いの指標を導出する。
本研究では,非交叉表現の異なる側面を分離することにより,提案手法の有効性を実証的に実証する。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Adaptive Log-Euclidean Metrics for SPD Matrix Learning [73.12655932115881]
広く使われているログユークリッド計量(LEM)を拡張した適応ログユークリッド計量(ALEM)を提案する。
実験および理論的結果から,SPDニューラルネットワークの性能向上における提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-03-26T18:31:52Z) - Data-heterogeneity-aware Mixing for Decentralized Learning [63.83913592085953]
グラフの混合重みとノード間のデータ不均一性の関係に収束の依存性を特徴付ける。
グラフが現在の勾配を混合する能力を定量化する計量法を提案する。
そこで本研究では,パラメータを周期的かつ効率的に最適化する手法を提案する。
論文 参考訳(メタデータ) (2022-04-13T15:54:35Z) - A prior-based approximate latent Riemannian metric [3.716965622352967]
本研究では,単純かつ効率的かつ堅牢な生成モデルの潜在空間におけるサーロゲート共形生成メトリックを提案する。
提案する計量の挙動を理論的に解析し,実際に使用することは理にかなっていることを示す。
また,提案手法を生命科学におけるデータ分析に適用する可能性を示す。
論文 参考訳(メタデータ) (2021-03-09T08:31:52Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Provably adaptive reinforcement learning in metric spaces [45.104950321472955]
本研究では, 連続状態における強化学習と, 距離を付与した行動空間について検討する。
この結果が,距離空間における強化学習の適応的保証として初めて得られた。
論文 参考訳(メタデータ) (2020-06-18T22:28:03Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Deep Divergence Learning [11.88774207521156]
本稿では,ニューラルネットワークを用いた関数型ブレグマン発散の学習とパラメータ化に基づくディープブレグマン発散について紹介する。
特に、分布を比較するために、ディープメトリックラーニング、カーネルメトリックラーニング、マハラノビスメトリックラーニング、モーメントマッチング機能がどのように現れるかを示す。
次に、一般関数型Bregman分散学習のためのディープラーニングフレームワークを説明し、この手法がベンチマークデータセット上で優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-05-06T06:43:25Z) - Learning Similarity Metrics for Numerical Simulations [29.39625644221578]
本稿では,様々な数値シミュレーションソースから得られるデータを比較するため,安定かつ一般化された指標(LSiM)をニューラルネットワークで計算する手法を提案する。
提案手法は,計量の数学的性質を動機としたシームズネットワークアーキテクチャを用いている。
論文 参考訳(メタデータ) (2020-02-18T20:11:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。