論文の概要: The Elliptical Potential Lemma Revisited
- arxiv url: http://arxiv.org/abs/2010.10182v1
- Date: Tue, 20 Oct 2020 10:43:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 06:19:29.892314
- Title: The Elliptical Potential Lemma Revisited
- Title(参考訳): 楕円ポテンシャル補題の再訪
- Authors: Alexandra Carpentier and Claire Vernade and Yasin Abbasi-Yadkori
- Abstract要約: このノートは、いわゆる潜在的レムマに関する新しい証明と新しい視点を提案する。
オンライン学習、特に線形バンディットにおいて重要である。
- 参考スコア(独自算出の注目度): 86.72466008962418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This note proposes a new proof and new perspectives on the so-called
Elliptical Potential Lemma. This result is important in online learning,
especially for linear stochastic bandits. The original proof of the result,
however short and elegant, does not give much flexibility on the type of
potentials considered and we believe that this new interpretation can be of
interest for future research in this field.
- Abstract(参考訳): このノートは、いわゆる楕円ポテンシャル補題に関する新しい証明と新しい視点を提案する。
この結果はオンライン学習、特に線形確率バンディットにおいて重要である。
結果の元々の証明は短くエレガントであるが、考慮されたポテンシャルのタイプにはあまり柔軟性を与えておらず、この新たな解釈はこの分野での将来の研究にとって興味深いものであると信じている。
関連論文リスト
- Strike a Balance in Continual Panoptic Segmentation [60.26892488010291]
既存の知識の安定性と新しい情報への適応性のバランスをとるため,過去クラスのバックトレース蒸留を導入する。
また,リプレイ用サンプルセットのクラス分布と過去のトレーニングデータとの整合性を考慮したクラス比記憶戦略を導入する。
連続パノプティカルバランス(BalConpas)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T09:58:20Z) - Machine learning assisted exploration for affine Deligne-Lusztig
varieties [3.7863170254779335]
本稿では,ADLV(Affine Deligne-Lusztig variety)の幾何学を探索するために,機械学習支援フレームワークを活用した学際研究を提案する。
主な目的は, ADLVの既約成分の空白パターン, 寸法, 列挙について検討することである。
我々は、ある下界の次元に関する新たに特定された問題の完全な数学的証明を提供する。
論文 参考訳(メタデータ) (2023-08-22T11:12:53Z) - Preserving Linear Separability in Continual Learning by Backward Feature
Projection [16.780058676633917]
破滅的な忘れ物は、継続的な学習において大きな課題となっている。
本稿では,新しい特徴を学習可能な線形変換に変換するための連続学習手法である後方特徴投影(BFP)を提案する。
BFPは古いクラスの線形分離性を保ちつつ、新しいフィーチャの方向が新しいクラスに対応できるようにしている。
論文 参考訳(メタデータ) (2023-03-26T00:35:59Z) - Limitations of Piecewise Linearity for Efficient Robustness
Certification [9.594432031144716]
我々は、一貫した線形性は、主要な認証技術の厳密性に根本的な制限を課すと主張している。
我々は、スムーズなアクティベーション関数の開発が、認定ニューラルネットワークの性能向上への道のりであると結論付けている。
論文 参考訳(メタデータ) (2023-01-21T01:20:43Z) - A Comprehensive Survey of Few-shot Learning: Evolution, Applications,
Challenges, and Opportunities [5.809416101410813]
効果的な学習方法としてショットラーニングが登場し、大きな可能性を秘めている。
我々は過去3年間に発行されたFSLに関する200以上の最新の論文を広範囲に調査した。
本稿では,知識の抽象化レベルに応じて既存の作業を分類する新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-05-13T16:24:35Z) - A Simple Contrastive Learning Objective for Alleviating Neural Text
Degeneration [56.64703901898937]
本稿では,クロスエントロピーと異種訓練の利点を継承する,新しい対照的なトークン学習目標を提案する。
言語モデリングとオープンドメイン対話生成タスクに関する総合的な実験は、提案したコントラストトークンの目的がより繰り返しの少ないテキストを生成することを示す。
論文 参考訳(メタデータ) (2022-05-05T08:50:50Z) - Exploring Linear Feature Disentanglement For Neural Networks [63.20827189693117]
Sigmoid、ReLU、Tanhなどの非線形活性化関数は、ニューラルネットワーク(NN)において大きな成功を収めた。
サンプルの複雑な非線形特性のため、これらの活性化関数の目的は、元の特徴空間から線形分離可能な特徴空間へサンプルを投影することである。
この現象は、現在の典型的なNNにおいて、すべての特徴がすべての非線形関数によって変換される必要があるかどうかを探求することに興味をそそる。
論文 参考訳(メタデータ) (2022-03-22T13:09:17Z) - Near-optimal Offline Reinforcement Learning with Linear Representation:
Leveraging Variance Information with Pessimism [65.46524775457928]
オフライン強化学習は、オフライン/歴史的データを活用して、シーケンシャルな意思決定戦略を最適化しようとしている。
線形モデル表現を用いたオフライン強化学習の統計的限界について検討する。
論文 参考訳(メタデータ) (2022-03-11T09:00:12Z) - Revisiting the Weaknesses of Reinforcement Learning for Neural Machine
Translation [6.996167229934594]
政策勾配アルゴリズムは、NLPで広く採用されているが、最近は批判の対象となり、NMTに対する適合性を疑っている。
本稿では,これらの主張を再考し,より広範な構成下で研究する。
ドメイン内およびドメイン間適応に関する実験は、探索と報酬スケーリングの重要性を明らかにし、これらの主張に実証的な反証を提供する。
論文 参考訳(メタデータ) (2021-06-16T16:54:49Z) - Dynamical Isometry: The Missing Ingredient for Neural Network Pruning [65.59151170177664]
微調整学習率が大きいと、最終的なパフォーマンスが大幅に向上する。
本論文では,動的等方性レンズを用いて説明する。
プルーニングに関するより明確な理論的理解に加えて、問題の解決は実践においてかなりのパフォーマンス上のメリットをもたらす可能性がある。
論文 参考訳(メタデータ) (2021-05-12T19:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。