論文の概要: Estimation of mutual information via quantum kernel method
- arxiv url: http://arxiv.org/abs/2310.12396v1
- Date: Thu, 19 Oct 2023 00:53:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 17:26:22.737463
- Title: Estimation of mutual information via quantum kernel method
- Title(参考訳): 量子カーネル法による相互情報の推定
- Authors: Yota Maeda, Hideaki Kawaguchi, Hiroyuki Tezuka
- Abstract要約: 相互情報(MI)の推定は,複数の確率変数間の関係を非線形相関で調査する上で重要な役割を担っている。
本稿では,量子カーネルを用いた相互情報推定手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, the importance of analysing data and collecting valuable insight
efficiently has been increasing in various fields. Estimating mutual
information (MI) plays a critical role to investigate the relationship among
multiple random variables with a nonlinear correlation. Particularly, the task
to determine whether they are independent or not is called the independence
test, whose core subroutine is estimating MI from given data. It is a
fundamental tool in statistics and data analysis that can be applied in a wide
range of application such as hypothesis testing, causal discovery and more. In
this paper, we propose a method for estimating mutual information using the
quantum kernel. We investigate the performance under various problem settings,
such as different sample size or the shape of the probability distribution. As
a result, the quantum kernel method showed higher performance than the
classical one under the situation that the number of samples is small, the
variance is large or the variables posses highly non-linear relationships. We
discuss this behavior in terms of the central limit theorem and the structure
of the corresponding quantum reproducing kernel Hilbert space.
- Abstract(参考訳): 近年,様々な分野において,価値ある洞察を効率的に収集することの重要性が高まっている。
相互情報(MI)の推定は,複数変数間の関係を非線形相関で調査する上で重要な役割を果たす。
特に、それらが独立かどうかを判断するタスクは独立テストと呼ばれ、そのコアサブルーチンは与えられたデータからmiを推定する。
統計学やデータ分析における基本的なツールであり、仮説テストや因果的発見など、幅広い応用に適用することができる。
本稿では,量子カーネルを用いた相互情報推定手法を提案する。
サンプルサイズや確率分布の形状など,様々な問題条件下での性能について検討した。
その結果, 量子カーネル法は, サンプル数が少ない場合, ばらつきが大きい場合, あるいは非線形関係が強い場合において, 従来のものよりも高い性能を示した。
我々は、この振る舞いを中心極限定理と対応する量子再現核ヒルベルト空間の構造の観点から論じる。
関連論文リスト
- On the Properties and Estimation of Pointwise Mutual Information Profiles [49.877314063833296]
ポイントワイド相互情報プロファイル(ポイントワイド相互情報プロファイル、英: pointwise mutual information profile)は、与えられた確率変数のペアに対するポイントワイド相互情報の分布である。
そこで我々は,モンテカルロ法を用いて分布を正確に推定できる新しい分布系 Bend と Mix Models を導入する。
論文 参考訳(メタデータ) (2023-10-16T10:02:24Z) - Max-Sliced Mutual Information [17.667315953598788]
高次元の確率変数間の依存性の定量化は、統計的学習と推論の中心である。
2つの古典的手法は正準相関解析 (CCA) であり、これは元の変数の最大相関型を識別するものであり、シャノンの相互情報は普遍的依存度である。
本研究は、最大スライシング相互情報(mSMI)と呼ばれるCCAのスケーラブルな情報理論の一般化という形で中間層を提案する。
論文 参考訳(メタデータ) (2023-09-28T06:49:25Z) - Kernel-based Joint Independence Tests for Multivariate Stationary and
Non-stationary Time Series [0.6749750044497732]
多変量時系列における共同独立のカーネルベース統計テストを導入する。
提案手法は, 合成例において, 高次依存関係を頑健に発見する方法を示す。
我々の手法はデータの高次相互作用を明らかにするのに役立つ。
論文 参考訳(メタデータ) (2023-05-15T10:38:24Z) - A Unifying Framework for Some Directed Distances in Statistics [0.0]
密度に基づく有向距離(特に発散距離)は統計学で広く使われている。
本稿では、密度ベースと分布関数ベースの分散アプローチの両方を網羅する一般的なフレームワークを提供する。
我々は、有望な相互情報の代替として、確率変数間の依存の新たな概念を導出する。
論文 参考訳(メタデータ) (2022-03-02T04:24:13Z) - BayesIMP: Uncertainty Quantification for Causal Data Fusion [52.184885680729224]
本研究では,複数の因果グラフに関連するデータセットを組み合わせ,対象変数の平均処理効果を推定する因果データ融合問題について検討する。
本稿では、確率積分とカーネル平均埋め込みのアイデアを組み合わせて、再生されたカーネルヒルベルト空間における干渉分布を表現するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-06-07T10:14:18Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Statistically significant tests of multiparticle quantum correlations
based on randomized measurements [0.0]
異なる大きさのパーティションに対して分離可能な状態によって満たされるマルチキュービット基準の階層を導入する。
本研究では,実験における推定値の統計的誤差を詳細に分析し,統計的意義を推定するためのいくつかの手法を提案する。
論文 参考訳(メタデータ) (2020-12-22T17:14:28Z) - Reducing the Variance of Variational Estimates of Mutual Information by
Limiting the Critic's Hypothesis Space to RKHS [0.0]
相互情報(英: Mutual Information、MI)は、2つの確率変数間の依存性に関する情報理論の尺度である。
近年の手法では、未知密度比を近似するニューラルネットワークとしてパラメトリック確率分布や批判が実現されている。
我々は、高分散特性は、批評家の仮説空間の制御不能な複雑さに起因すると論じる。
論文 参考訳(メタデータ) (2020-11-17T14:32:48Z) - Interpolation and Learning with Scale Dependent Kernels [91.41836461193488]
非パラメトリックリッジレス最小二乗の学習特性について検討する。
スケール依存カーネルで定義される推定器の一般的な場合を考える。
論文 参考訳(メタデータ) (2020-06-17T16:43:37Z) - Neural Methods for Point-wise Dependency Estimation [129.93860669802046]
我々は,2つの結果が共起する確率を定量的に測定する点依存度(PD)の推定に焦点をあてる。
提案手法の有効性を,1)MI推定,2)自己教師付き表現学習,3)クロスモーダル検索タスクで示す。
論文 参考訳(メタデータ) (2020-06-09T23:26:15Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。