論文の概要: Applications of Entropy in Data Analysis and Machine Learning: A Review
- arxiv url: http://arxiv.org/abs/2503.02921v1
- Date: Tue, 04 Mar 2025 17:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:53:10.059179
- Title: Applications of Entropy in Data Analysis and Machine Learning: A Review
- Title(参考訳): データ分析と機械学習におけるエントロピーの応用
- Authors: Salomé A. Sepúveda Fontaine, José M. Amigó,
- Abstract要約: エントロピーの概念は他の物理学や数学の分野にも浸透した。
このレビューの主題は、データ分析と機械学習における彼らの応用である。
- 参考スコア(独自算出の注目度): 0.25782420501870285
- License:
- Abstract: Since its origin in the thermodynamics of the 19th century, the concept of entropy has also permeated other fields of physics and mathematics, such as Classical and Quantum Statistical Mechanics, Information Theory, Probability Theory, Ergodic Theory and the Theory of Dynamical Systems. Specifically, we are referring to the classical entropies: the Boltzmann-Gibbs, von Neumann, Shannon, Kolmogorov-Sinai and topological entropies. In addition to their common name, which is historically justified (as we briefly describe in this review), other commonality of the classical entropies is the important role that they have played and are still playing in the theory and applications of their respective fields and beyond. Therefore, it is not surprising that, in the course of time, many other instances of the overarching concept of entropy have been proposed, most of them tailored to specific purposes. Following the current usage, we will refer to all of them, whether classical or new, simply as entropies. Precisely, the subject of this review is their applications in data analysis and machine learning. The reason for these particular applications is that entropies are very well suited to characterize probability mass distributions, typically generated by finite-state processes or symbolized signals. Therefore, we will focus on entropies defined as positive functionals on probability mass distributions and provide an axiomatic characterization that goes back to Shannon and Khinchin. Given the plethora of entropies in the literature, we have selected a representative group, including the classical ones. The applications summarized in this review finely illustrate the power and versatility of entropy in data analysis and machine learning.
- Abstract(参考訳): 19世紀の熱力学の起源から、エントロピーの概念は古典力学や量子統計力学、情報理論、確率理論、エルゴード理論、力学理論など他の物理学や数学の分野にも浸透した。
具体的には、ボルツマン・ギブス、フォン・ノイマン、シャノン、コルモゴロフ・シナイ、トポロジカル・エントロピーといった古典的エントロピーを参照する。
歴史的に正当化されているコモンネームに加えて、古典的エントロピーの他の共通性は、彼らが演じた重要な役割であり、それぞれの分野の理論や応用において、そして、それを超えて、今でも演じている。
したがって、時間とともに、他の多くの大域的なエントロピーの概念が提案され、その多くが特定の目的に合わせたものであることは驚くべきことではない。
現在の使用法に従って、古典的、あるいは新しい、あるいは単にエントロピー(entropies)として、それらすべてを参照する。
正確には、このレビューの主題は、データ分析と機械学習における彼らの応用である。
これらの応用の理由は、エントロピーが一般に有限状態過程や記号化された信号によって生成される確率質量分布を特徴づけるのに非常に適しているからである。
したがって、確率質量分布の正の関数として定義されるエントロピーに焦点をあて、シャノンとヒンチンに遡る公理的特徴を与える。
文献におけるエントロピーの多さから、我々は古典的グループを含む代表グループを選択した。
このレビューで要約されたアプリケーションは、データ分析と機械学習におけるエントロピーのパワーと汎用性を詳細に説明している。
関連論文リスト
- Pioneer: Physics-informed Riemannian Graph ODE for Entropy-increasing Dynamics [61.70424540412608]
幅広いエントロピー増加動的システムに対する物理インフォームドグラフODEを提案する。
我々は、物理法則に従って、証明可能なエントロピーの非減少を報告する。
実証的な結果は、実際のデータセット上でのPioneerの優位性を示している。
論文 参考訳(メタデータ) (2025-02-05T14:54:30Z) - Fully quantum stochastic entropy production [2.3895981099137535]
熱力学のアプローチに基づいて、任意の量子過程に対するエントロピー生成を定義する。
平均エントロピー生成の古典的表現は、入力や出力における統計の比較のみを含むことを示す。
エントロピー生成作用素を構築し、エントロピーの値を非可換なケースに一般化する。
論文 参考訳(メタデータ) (2024-12-17T02:45:10Z) - The Expressivity of Classical and Quantum Neural Networks on
Entanglement Entropy [0.3299672391663526]
R'enyi エントロピーのフォン・ノイマンエントロピー(Von Neumann entropy)は、場の量子論において難しい問題である。
教師付き学習を用いた古典的および量子的ニューラルネットワークを用いて,この問題に対処するための一般的な枠組みを提案する。
提案手法はフォン・ノイマンとレーニのエントロピーを数値的に正確に予測できる。
論文 参考訳(メタデータ) (2023-05-01T18:00:01Z) - Which entropy for general physical theories? [44.99833362998488]
任意の情報理論のための情報源の情報内容の定量化の問題に対処する。
古典的および量子論におけるこの問題を解決する関数は、それぞれシャノンのエントロピーとフォン・ノイマンのエントロピーである。
一般的な情報理論では、エントロピーの概念を拡張する3つの異なる関数が存在し、これが情報内容に対する量化器の役割を普遍的に果たせるかどうかという疑問を提起する。
論文 参考訳(メタデータ) (2023-02-03T10:55:13Z) - Bridging the gap between classical and quantum many-body information
dynamics [0.0]
研究は、古典的および量子システムに広がる情報の性質に光を当てる。
物理学、情報理論、統計学にまたがる量子に触発された古典的アプローチの新たな道を開く。
論文 参考訳(メタデータ) (2022-04-06T18:03:29Z) - Maximum entropy quantum state distributions [58.720142291102135]
我々は、保存された量の完全な分布に関する伝統的な熱力学と条件を超える。
その結果、熱状態からの偏差が広い入力分布の極限でより顕著になる量子状態分布が得られた。
論文 参考訳(メタデータ) (2022-03-23T17:42:34Z) - Why we should interpret density matrices as moment matrices: the case of
(in)distinguishable particles and the emergence of classical reality [69.62715388742298]
一般確率論として量子論(QT)の定式化を導入するが、準観測作用素(QEOs)で表される。
区別不可能な粒子と識別不能な粒子の両方に対するQTをこの方法で定式化できることを示します。
古典的なダイスに対する有限交換可能な確率は、QTと同じくらい奇数であることを示す。
論文 参考訳(メタデータ) (2022-03-08T14:47:39Z) - Linear growth of the entanglement entropy for quadratic Hamiltonians and
arbitrary initial states [11.04121146441257]
ボゾン量子系の任意の純粋な初期状態の絡み合いエントロピーが時間とともに線形に増加することを証明した。
我々は、ハミルトンと周期的に駆動される量子系と相互作用する(弱く)相互作用を持つ物理系に対する結果のいくつかの応用について論じる。
論文 参考訳(メタデータ) (2021-07-23T07:55:38Z) - Shannon Entropy Rate of Hidden Markov Processes [77.34726150561087]
隠れマルコフ連鎖のエントロピー率を計算する方法を示す。
また,この手法が最小限の無限予測的特徴を与えることを示す。
続編は、構造に関するチャレンジの第2部に対処します。
論文 参考訳(メタデータ) (2020-08-29T00:48:17Z) - Emergence of classical behavior in the early universe [68.8204255655161]
3つの概念は本質的に同値であると仮定され、同じ現象の異なる面を表す。
古典位相空間上の幾何構造のレンズを通して、一般のフリードマン=ルマイト=ロバートソン=ヴァルカー空間で解析する。
分析によれば、 (i) インフレーションは本質的な役割を果たさない; 古典的行動はより一般的に現れる; (ii) 3つの概念は概念的に異なる; 古典性はある意味で現れるが別の意味では生じない。
論文 参考訳(メタデータ) (2020-04-22T16:38:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。