論文の概要: Towards a pretrained deep learning estimator of the Linfoot informational correlation
- arxiv url: http://arxiv.org/abs/2512.12358v1
- Date: Sat, 13 Dec 2025 15:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.228971
- Title: Towards a pretrained deep learning estimator of the Linfoot informational correlation
- Title(参考訳): リンフット情報相関の事前学習推定器に向けて
- Authors: Stéphanie M. van den Berg, Ulrich Halekoh, Sören Möller, Andreas Kryger Jensen, Jacob von Bornemann Hjelmborg,
- Abstract要約: 本研究では2つの連続確率変数間の相互情報を推定するための教師付きディープラーニング手法を開発する。
ラベルとして、多くの重要な性質を持つ相互情報の変換であるリンフット情報相関を用いる。
- 参考スコア(独自算出の注目度): 0.010411372746649314
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We develop a supervised deep-learning approach to estimate mutual information between two continuous random variables. As labels, we use the Linfoot informational correlation, a transformation of mutual information that has many important properties. Our method is based on ground truth labels for Gaussian and Clayton copulas. We compare our method with estimators based on kernel density, k-nearest neighbours and neural estimators. We show generally lower bias and lower variance. As a proof of principle, future research could look into training the model with a more diverse set of examples from other copulas for which ground truth labels are available.
- Abstract(参考訳): 本研究では2つの連続確率変数間の相互情報を推定するための教師付きディープラーニング手法を開発する。
ラベルとして、多くの重要な性質を持つ相互情報の変換であるリンフット情報相関を用いる。
提案手法はガウシアン・クレイトン・コーパスの真理ラベルに基づく。
本手法を,カーネル密度,k-アネレスト近傍およびニューラル推定器に基づく推定器と比較した。
一般にバイアスが低く、ばらつきが低い。
原理の証明として、将来の研究は、基礎となる真理ラベルが利用可能な他のコプラのより多様な例を用いてモデルをトレーニングすることを検討することができる。
関連論文リスト
- Convergence of Statistical Estimators via Mutual Information Bounds [3.9041951045689305]
我々は統計モデルに縛られた新しい相互情報を導入する。
導出境界は、統計的推測において広い範囲の応用を持つ。
また、幅広い推定方法の研究にも使用できる。
論文 参考訳(メタデータ) (2024-12-24T16:42:45Z) - Mutual Information Multinomial Estimation [53.58005108981247]
相互情報(MI)の推定は、データサイエンスと機械学習の基本的な課題である。
我々の主な発見は、データ分布の予備的な推定が、劇的に予測に役立ちます。
非ガウス的合成問題を含む多種多様な課題に対する実験は,本手法の利点を実証している。
論文 参考訳(メタデータ) (2024-08-18T06:27:30Z) - Trade-Offs of Diagonal Fisher Information Matrix Estimators [53.35448232352667]
Fisher情報行列は、ニューラルネットワークのパラメータ空間の局所幾何学を特徴付けるのに使うことができる。
精度とサンプルの複雑さが関連する分散に依存する2つの人気推定器について検討する。
分散のバウンダリを導出し、回帰と分類のためにニューラルネットワークでそれらをインスタンス化する。
論文 参考訳(メタデータ) (2024-02-08T03:29:10Z) - On the Properties and Estimation of Pointwise Mutual Information Profiles [49.877314063833296]
ポイントワイド相互情報プロファイル(ポイントワイド相互情報プロファイル、英: pointwise mutual information profile)は、与えられた確率変数のペアに対するポイントワイド相互情報の分布である。
そこで我々は,モンテカルロ法を用いて分布を正確に推定できる新しい分布系 Bend と Mix Models を導入する。
論文 参考訳(メタデータ) (2023-10-16T10:02:24Z) - FACTS: First Amplify Correlations and Then Slice to Discover Bias [17.244153084361102]
コンピュータビジョンデータセットは、しばしばタスク関連ラベルと(学習しやすい)潜在タスク関連属性の間の急激な相関を含んでいる。
このようなデータセットでトレーニングされたモデルは、"ショートカット"を学び、相関が保たないデータのバイアス分散スライスを過小評価する。
本稿では,まず相関を増幅し,次にバイアスを識別し,下流のバイアス軽減戦略について報告する。
論文 参考訳(メタデータ) (2023-09-29T17:41:26Z) - Beyond Normal: On the Evaluation of Mutual Information Estimators [52.85079110699378]
そこで本研究では,既知の地道的相互情報を用いて,多種多様な分布群を構築する方法について述べる。
本稿では,問題の難易度に適応した適切な推定器の選択方法について,実践者のためのガイドラインを提供する。
論文 参考訳(メタデータ) (2023-06-19T17:26:34Z) - A Unifying Framework for Some Directed Distances in Statistics [0.0]
密度に基づく有向距離(特に発散距離)は統計学で広く使われている。
本稿では、密度ベースと分布関数ベースの分散アプローチの両方を網羅する一般的なフレームワークを提供する。
我々は、有望な相互情報の代替として、確率変数間の依存の新たな概念を導出する。
論文 参考訳(メタデータ) (2022-03-02T04:24:13Z) - DEMI: Discriminative Estimator of Mutual Information [5.248805627195347]
連続確率変数間の相互情報を推定することは、高次元データにとってしばしば難解で困難である。
近年の進歩は、相互情報の変動的下界を最適化するためにニューラルネットワークを活用している。
提案手法は,データサンプルペアが結合分布から引き出される確率を提供する分類器の訓練に基づく。
論文 参考訳(メタデータ) (2020-10-05T04:19:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。