論文の概要: Jeffrey's update rule as a minimizer of Kullback-Leibler divergence
- arxiv url: http://arxiv.org/abs/2502.15504v1
- Date: Fri, 21 Feb 2025 15:01:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-24 16:10:14.724971
- Title: Jeffrey's update rule as a minimizer of Kullback-Leibler divergence
- Title(参考訳): Kullback-Leiblerの発散最小値としてのJeffreyの更新規則
- Authors: Carlos Pinzón, Catuscia Palamidessi,
- Abstract要約: 我々は、研究者のバート・ジェイコブス(英語版)によって導かれた元の証明よりも、より簡潔で高いレベルの証明を示す。
予測を生成する内部状態の学習または更新のためのベイズ更新規則の文脈では、ジェフリーの更新規則を適用して内部状態を更新する際に、観測と予測の間の相対エントロピーが減少する。
- 参考スコア(独自算出の注目度): 7.93423297587318
- License:
- Abstract: In this paper, we show a more concise and high level proof than the original one, derived by researcher Bart Jacobs, for the following theorem: in the context of Bayesian update rules for learning or updating internal states that produce predictions, the relative entropy between the observations and the predictions is reduced when applying Jeffrey's update rule to update the internal state.
- Abstract(参考訳): 本稿では,研究者のバルト・ヤコブス(Bart Jacobs)によって導かれた元より簡潔で高レベルな証明を以下の定理で示す: 予測を生成する内部状態を学習または更新するためのベイズ更新規則の文脈において,ジェフリーの更新規則を適用して内部状態を更新する際,観測と予測の間の相対エントロピーが減少する。
関連論文リスト
- Weber-Fechner Law in Temporal Difference learning derived from Control as Inference [10.710674792832354]
強化学習(RL)における時間差(TD)誤差に基づく新しい非線形更新規則について検討する。
一方、最近の生物学的研究により、TDエラーには非線形性、更新度、偏見、楽観的あるいは悲観的な政策が存在することが明らかになった。
本研究では,更新度とTD誤差の非線形性を利用する理論的枠組みについて検討する。
論文 参考訳(メタデータ) (2024-12-30T15:13:57Z) - Exact, Tractable Gauss-Newton Optimization in Deep Reversible Architectures Reveal Poor Generalization [52.16435732772263]
多くのアプリケーションにおいて、ディープニューラルネットワークのトレーニングを加速する2階最適化が示されている。
しかし、二階法の一般化特性についてはいまだ議論が続いている。
我々は、Gauss-Newton (GN) の正確な更新が、ディープアーキテクチャのクラスにおいて、牽引可能な形式を取ることを初めて示す。
論文 参考訳(メタデータ) (2024-11-12T17:58:40Z) - Revisiting Differential Verification: Equivalence Verification with Confidence [0.6562256987706128]
検証済みニューラルネットワーク(NN)がデプロイ前にプルーニング(および再トレーニング)されると、新しいNNが元のNNと同等に振る舞うことを証明することが望ましい。
本稿では,NN間の差異を推論する差分検証の考え方を再考する。
論文 参考訳(メタデータ) (2024-10-26T15:53:25Z) - Pearl's and Jeffrey's Update as Modes of Learning in Probabilistic
Programming [0.7770029179741429]
パールとジェフリーのルールは、異なる結果をもたらす2つの自然な更新メカニズムである。
本稿では,それらの関係をいくつかの方法で明らかにする。
論文 参考訳(メタデータ) (2023-09-13T16:09:13Z) - When Does Confidence-Based Cascade Deferral Suffice? [69.28314307469381]
カスケードは、推論コストをサンプル毎に適応的に変化させる古典的な戦略である。
deferralルールは、シーケンス内の次の分類子を呼び出すか、または予測を終了するかを決定する。
カスケードの構造に執着しているにもかかわらず、信頼に基づく推論は実際は極めてうまく機能することが多い。
論文 参考訳(メタデータ) (2023-07-06T04:13:57Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Theorems motivated by foundations of quantum mechanics and some of their
applications [0.0]
本稿では,量子力学の基礎となる問題に光を当てることを目的とした定理を提案する。
定理は理論に新しい解釈を提案したり、あるいは現在の解釈をよりよく理解し、評価し、改善するために用いられる。
論文 参考訳(メタデータ) (2022-02-02T21:55:57Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - Optimal Change-Point Detection with Training Sequences in the Large and
Moderate Deviations Regimes [72.68201611113673]
本稿では,情報理論の観点から,新しいオフライン変化点検出問題について検討する。
基礎となる事前および変更後分布の知識は分かっておらず、利用可能なトレーニングシーケンスからのみ学習できると仮定する。
論文 参考訳(メタデータ) (2020-03-13T23:39:40Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。