論文の概要: The Conditional Cauchy-Schwarz Divergence with Applications to
Time-Series Data and Sequential Decision Making
- arxiv url: http://arxiv.org/abs/2301.08970v1
- Date: Sat, 21 Jan 2023 16:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-24 15:31:11.935765
- Title: The Conditional Cauchy-Schwarz Divergence with Applications to
Time-Series Data and Sequential Decision Making
- Title(参考訳): 条件付きコーシーシュワルツ分割と時系列データとシーケンス決定への応用
- Authors: Shujian Yu, Hongming Li, Sigurd L{\o}kse, Robert Jenssen, Jos\'e C.
Pr\'incipe
- Abstract要約: 古典的なコーシー=シュワルツ分岐を拡張して、2つの条件分布間の近接性を定量化する。
提案手法は,カーネル密度推定器を用いて提案した条件付きCSの偏差を簡易に推定できることを示す。
- 参考スコア(独自算出の注目度): 23.13757252149581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Cauchy-Schwarz (CS) divergence was developed by Pr\'{i}ncipe et al. in
2000. In this paper, we extend the classic CS divergence to quantify the
closeness between two conditional distributions and show that the developed
conditional CS divergence can be simply estimated by a kernel density estimator
from given samples. We illustrate the advantages (e.g., the rigorous
faithfulness guarantee, the lower computational complexity, the higher
statistical power, and the much more flexibility in a wide range of
applications) of our conditional CS divergence over previous proposals, such as
the conditional KL divergence and the conditional maximum mean discrepancy. We
also demonstrate the compelling performance of conditional CS divergence in two
machine learning tasks related to time series data and sequential inference,
namely the time series clustering and the uncertainty-guided exploration for
sequential decision making.
- Abstract(参考訳): コーシー=シュワルツ(CS)の発散は2000年にPr\'{i}ncipeらによって開発された。
本稿では、2つの条件分布間の近接性を定量化するために古典的CS偏差を拡張し、与えられたサンプルからカーネル密度推定器によって開発条件CS偏差を簡易に推定できることを示す。
我々は、条件付きCS分散の利点(例えば、厳密な忠実性保証、より低い計算複雑性、より高い統計パワー、より広い範囲の応用における柔軟性)を、条件付きKL偏差や条件付き最大平均偏差といった従来の提案よりも説明する。
また、時系列データとシーケンシャル推論に関連する2つの機械学習タスク、すなわち時系列クラスタリングとシーケンシャル意思決定のための不確実性誘導探索において、条件付きCSの分岐が魅力的な性能を示す。
関連論文リスト
- Variational Inference with Sequential Sample-Average Approximations [7.792333134503654]
逐次サンプル平均近似(VISA)を用いた変分推論を提案する。
VISAは、サンプル平均近似を用いて、重要重み付きフォワード-KL変量推論を拡張する。
我々は,VISAが標準重み付きフォワードKL変分推定に匹敵する近似精度を達成できることを実証した。
論文 参考訳(メタデータ) (2024-03-14T14:20:22Z) - On the connection between Noise-Contrastive Estimation and Contrastive
Divergence [13.312007032203859]
ノイズコントラスト推定(NCE)は、非正規化確率モデルを推定するための一般的な手法である。
NCEと条件付きNCEの2つの基準をML推定法とみなすことができる。
論文 参考訳(メタデータ) (2024-02-26T16:04:47Z) - Non-asymptotic Convergence of Discrete-time Diffusion Models: New
Approach and Improved Rate [54.596887384531236]
我々は離散時間拡散モデルの下で、分布のかなり大きなクラスに対する収束保証を確立する。
パラメータ依存を明示した分布の興味深いクラスに対して,結果の専門化を行う。
本稿では,新しい加速サンプリング器を提案し,対応する正則サンプリング器の収束率を桁違いに向上することを示す。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - On the near-optimality of betting confidence sets for bounded means [42.460619457560334]
信頼性区間(CI)を定義するための代替ベッティングベースのアプローチが,古典的手法よりも経験的に優れていることを示す。
特定の逆情報投影の観点でCI/CSを構築する方法によって達成可能な最小幅を特徴付ける2つの下位境界を確立する。
これらの結果から、ベッティングCI(およびCS)は、既存の最先端のEB-CI(および)レギュレーションよりも強力な理論的保証を認めることが示唆された。
論文 参考訳(メタデータ) (2023-10-02T18:42:23Z) - Detecting continuous variable entanglement in phase space with the
$Q$-distribution [0.0]
本稿では,Husimi $Q$-distributionに基づく連続変数絡み合い基準のクラスを証明する。
コンケーブ関数の集合を最適化する可能性の根源となる一般化について論じる。
論文 参考訳(メタデータ) (2022-11-30T17:01:24Z) - Controlling Moments with Kernel Stein Discrepancies [80.27423363467499]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Targeted Separation and Convergence with Kernel Discrepancies [66.48817218787006]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Critical Parameters for Scalable Distributed Learning with Large Batches
and Asynchronous Updates [67.19481956584465]
飽和を伴う分散トレーニング(SGD)の効率は、バッチサイズと、実装における停滞に決定的に依存することが実験的に観察されている。
結果がタイトであることを示し、数値実験で重要な結果を示しています。
論文 参考訳(メタデータ) (2021-03-03T12:08:23Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。