論文の概要: The Maximum von Neumann Entropy Principle: Theory and Applications in Machine Learning
- arxiv url: http://arxiv.org/abs/2602.02117v1
- Date: Mon, 02 Feb 2026 13:59:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:34.187194
- Title: The Maximum von Neumann Entropy Principle: Theory and Applications in Machine Learning
- Title(参考訳): ニューマンエントロピー原理の最大値:機械学習における理論と応用
- Authors: Youqi Wu, Farzan Farnia,
- Abstract要約: 我々は、Grnwald と Dawid による最大エントロピー原理のミニマックス定式化を、フォン・ノイマンエントロピーの設定にまで拡張する。
この観点は、部分情報の下での最大VNE解の堅牢な解釈をもたらす。
次に、結果のVNE原則が現代の機械学習問題にどのように適用されるかを説明する。
- 参考スコア(独自算出の注目度): 18.198091804236782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Von Neumann entropy (VNE) is a fundamental quantity in quantum information theory and has recently been adopted in machine learning as a spectral measure of diversity for kernel matrices and kernel covariance operators. While maximizing VNE under constraints is well known in quantum settings, a principled analogue of the classical maximum entropy framework, particularly its decision theoretic and game theoretic interpretation, has not been explicitly developed for VNE in data driven contexts. In this paper, we extend the minimax formulation of the maximum entropy principle due to Grünwald and Dawid to the setting of von Neumann entropy, providing a game-theoretic justification for VNE maximization over density matrices and trace-normalized positive semidefinite operators. This perspective yields a robust interpretation of maximum VNE solutions under partial information and clarifies their role as least committed inferences in spectral domains. We then illustrate how the resulting Maximum VNE principle applies to modern machine learning problems by considering two representative applications, selecting a kernel representation from multiple normalized embeddings via kernel-based VNE maximization, and completing kernel matrices from partially observed entries. These examples demonstrate how the proposed framework offers a unifying information-theoretic foundation for VNE-based methods in kernel learning.
- Abstract(参考訳): フォン・ノイマンエントロピー(Von Neumann entropy, VNE)は量子情報理論の基本量であり、近年、カーネル行列とカーネル共分散演算子の多様性のスペクトル尺度として機械学習に採用されている。
制約下でのVNEの最大化は量子設定においてよく知られているが、古典的な最大エントロピーフレームワーク、特にその決定理論とゲーム理論の解釈の原則的な類似は、データ駆動の文脈においてVNEのために明示的に開発されていない。
本稿では、Grünwald と Dawid による最大エントロピー原理のミニマックス定式化をフォン・ノイマンエントロピーの設定に拡張し、密度行列およびトレース正規化半定値作用素に対するVNE最大化のゲーム理論的正当化を与える。
この観点は、部分的な情報の下での最大VNE解の堅牢な解釈をもたらし、スペクトル領域における最小コミット推論としての役割を明らかにする。
次に、カーネルベースVNEの最大化により、複数の正規化埋め込みからカーネル表現を選択し、部分的に観察されたエントリからカーネル行列を完了させることにより、結果の最大VNE原則が現代の機械学習問題にどのように適用されるかを説明する。
これらの例は、提案フレームワークが、カーネル学習におけるVNEベースの手法の統一的な情報理論基盤を提供する方法を示している。
関連論文リスト
- NeuraLSP: An Efficient and Rigorous Neural Left Singular Subspace Preconditioner for Conjugate Gradient Methods [49.84495044725856]
NeuraLSPはニューラルプレコンディショナーである。
提案手法は, インフレーションのランク付けにおける理論的保証と実証的堅牢性の両方を示し, 最大53%の高速化を実現した。
論文 参考訳(メタデータ) (2026-01-28T02:15:16Z) - Efficient Calculation of the Maximal Rényi Divergence for a Matrix Product State via Generalized Eigenvalue Density Matrix Renormalization Group [0.0]
量子情報理論において、量子相互情報(quantum mutual information, $I(A;B)$)は、量子状態におけるサブシステム間の相関の尺度である。
最大レニイ発散はフォン・ノイマンの相互情報とは異なる傾向を示す可能性があることを示す。
論文 参考訳(メタデータ) (2026-01-05T13:54:16Z) - Fourier Neural Operators Explained: A Practical Perspective [75.12291469255794]
フーリエ・ニューラル・オペレータ(FNO)は、そのエレガントなスペクトル定式化により最も影響力があり広く採用されている。
本ガイドは,FNOを多種多様な科学・工学分野に効果的に適用するための,明確かつ信頼性の高い枠組みを確立することを目的とする。
論文 参考訳(メタデータ) (2025-12-01T08:56:21Z) - Entrywise error bounds for low-rank approximations of kernel matrices [55.524284152242096]
切り抜き固有分解を用いて得られたカーネル行列の低ランク近似に対するエントリーワイド誤差境界を導出する。
重要な技術的革新は、小さな固有値に対応するカーネル行列の固有ベクトルの非局在化結果である。
我々は、合成および実世界のデータセットの集合に関する実証的研究により、我々の理論を検証した。
論文 参考訳(メタデータ) (2024-05-23T12:26:25Z) - VNE: An Effective Method for Improving Deep Representation by
Manipulating Eigenvalue Distribution [2.5461557112299773]
我々は、フォン・ノイマンエントロピー(VNE)を正規化することを提案する。
まず、VNEの数学的定式化が表現自己相関行列の固有値を効果的に操作する上で優れていることを示す。
さらに、我々は、ランク、不整合、および表現の等方性との理論的関係を正式に確立する。
論文 参考訳(メタデータ) (2023-04-04T01:03:32Z) - Meta-learning Feature Representations for Adaptive Gaussian Processes
via Implicit Differentiation [1.5293427903448025]
メタラーニングと従来の学習の補間により深層カーネルを学習するための一般的なフレームワークを提案する。
ADKFは完全に一般的な方法であるが、薬物発見問題に特に適していると論じる。
論文 参考訳(メタデータ) (2022-05-05T15:26:53Z) - Incomplete Gamma Kernels: Generalizing Locally Optimal Projection Operators [7.47193191854175]
局所最適射影(LOP)作用素の一般化である不完全ガンマ核を提案する。
改良されたLOP密度重み付けスキームから、新しいロバストな損失関数セットの定義まで、いくつかの応用について説明する。
我々は、新しいカーネルをニューラルネットワークにプリエントとして組み込むことができることを示した。
論文 参考訳(メタデータ) (2022-05-02T17:59:02Z) - Flow-based Kernel Prior with Application to Blind Super-Resolution [143.21527713002354]
カーネル推定は一般にブラインド画像超解像(SR)の鍵となる問題の一つである
本稿では,カーネルモデリングのための正規化フローベースカーネルプリレント(fkp)を提案する。
合成および実世界の画像の実験により、提案したFKPがカーネル推定精度を大幅に向上することを示した。
論文 参考訳(メタデータ) (2021-03-29T22:37:06Z) - A Mean-Field Theory for Learning the Sch\"{o}nberg Measure of Radial
Basis Functions [13.503048325896174]
トレーニングサンプルから放射基底関数のシュンベルク積分表現の分布を学習する。
スケーリング限界において、ランゲヴィン粒子の経験的測度が、反射的イオ拡散ドリフト過程の法則に収束することを証明する。
論文 参考訳(メタデータ) (2020-06-23T21:04:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。