論文の概要: Quantization of Ricci Curvature in Information Geometry
- arxiv url: http://arxiv.org/abs/2603.10054v1
- Date: Mon, 09 Mar 2026 17:44:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.598107
- Title: Quantization of Ricci Curvature in Information Geometry
- Title(参考訳): 情報幾何学におけるリッチ曲率の量子化
- Authors: Carlos C. Rodriguez,
- Abstract要約: 2004年、二元ベイズネットワーク (bitnets) の情報幾何学の研究中に、フィッシャー情報計量に関して計算された体積平均リッチスカラー R> は正の半整数 R> in (1/2)Z に普遍的に量子化されていると推測した。
本稿では,20年後の予想を解き,木構造および完全グラフビットネットに対して,普遍的なベータ関数のキャンセル機構を用いて証明し,明示的なループ反例を示すことによって一般論として論証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2004, while studying the information geometry of binary Bayesian networks (bitnets), the author conjectured that the volume-averaged Ricci scalar <R> computed with respect to the Fisher information metric is universally quantized to positive half-integers: <R> in (1/2)Z. This paper resolves the conjecture after 20 years. We prove it for tree-structured and complete-graph bitnets via a universal Beta function cancellation mechanism, and disprove it in general by exhibiting explicit loop counterexamples. We extend the program to Gaussian DAG networks, where a sign dichotomy holds: discrete bitnets have positive curvature, while Gaussian networks form solvable Lie groups with negative curvature.
- Abstract(参考訳): 2004年、二元ベイズネットワーク (bitnets) の情報幾何学の研究中に、フィッシャー情報計量に関して計算された体積平均リッチスカラー<R>は、(1/2)Zにおける正の半整数に普遍的に量子化されていると推測した。
本稿では20年後の予想を解決する。
木構造および完全グラフビットネットに対して,ユニバーサルベータ関数のキャンセル機構を用いて証明し,明示的なループ反例を示すことで,一般にはそれを否定する。
離散ビットネットは正の曲率を持ち、ガウスネットワークは負の曲率を持つ可解リー群を形成する。
関連論文リスト
- The Inductive Bias of Convolutional Neural Networks: Locality and Weight Sharing Reshape Implicit Regularization [57.37943479039033]
本研究では,勾配降下における安定性現象によって引き起こされる暗黙の正則化に,アーキテクチャ的帰納バイアスがどう影響するかを考察する。
局所性と重量共有が根本的に変化していることが示されています。
論文 参考訳(メタデータ) (2026-03-05T04:50:51Z) - A Gauss-Bonnet Theorem for Quantum States: Gauss Curvature and Topology in the Projective Hilbert Space [0.0]
固有射影子に基づくゲージ不変の定式化を用いてブロッホ帯域の量子計量の曲率を計算する。
ガウス曲率は正則領域上で一定であるが、多様体は必然的に特異点の閉曲線を発達させる。
フロントと符号付き領域形式の概念を導入することにより、折りたたみ曲線に沿って定義される特異曲率項を含む一般化されたガウス・ボネット関係を導出する。
論文 参考訳(メタデータ) (2025-10-17T15:50:03Z) - Are Bayesian networks typically faithful? [12.27570686178551]
我々は、与えられたDAG上のすべてのベイズ的ネットワークの中で、忠実なネットワークは確かに典型的であることを示す。
条件付き指数族によってパラメトリされるベイズネットワークのクラスを考える。
論文 参考訳(メタデータ) (2024-10-21T13:38:04Z) - Generalization of Geometric Graph Neural Networks with Lipschitz Loss Functions [84.01980526069075]
幾何グラフニューラルネットワーク(GNN)の一般化能力について検討する。
我々は,このGNNの最適経験リスクと最適統計リスクとの一般化ギャップを証明した。
複数の実世界のデータセットに対する実験により、この理論結果を検証する。
論文 参考訳(メタデータ) (2024-09-08T18:55:57Z) - Affine Invariance in Continuous-Domain Convolutional Neural Networks [5.095097384893417]
グループ不変性は、幾何変換の下でパターンや特徴を認識するニューラルネットワークに役立つ。
本研究では,連続領域畳み込みニューラルネットワークにおけるアフィン不変性について検討する。
私たちの研究は最終的には、通常のディープラーニングパイプラインが扱える幾何学的変換の範囲を広げることができます。
論文 参考訳(メタデータ) (2023-11-13T14:17:57Z) - Bayesian Interpolation with Deep Linear Networks [92.1721532941863]
ニューラルネットワークの深さ、幅、データセットサイズがモデル品質にどう影響するかを特徴付けることは、ディープラーニング理論における中心的な問題である。
線形ネットワークが無限深度で証明可能な最適予測を行うことを示す。
また、データに依存しない先行法により、広い線形ネットワークにおけるベイズ模型の証拠は無限の深さで最大化されることを示す。
論文 参考訳(メタデータ) (2022-12-29T20:57:46Z) - On the Effective Number of Linear Regions in Shallow Univariate ReLU
Networks: Convergence Guarantees and Implicit Bias [50.84569563188485]
我々は、ラベルが$r$のニューロンを持つターゲットネットワークの符号によって決定されるとき、勾配流が方向収束することを示す。
我々の結果は、標本サイズによらず、幅が$tildemathcalO(r)$である、緩やかなオーバーパラメータ化をすでに維持しているかもしれない。
論文 参考訳(メタデータ) (2022-05-18T16:57:10Z) - Semi-Riemannian Graph Convolutional Networks [36.09315878397234]
まず、定数非零曲率の半リーマン多様体のデータをモデル化する原理付きセミリーマンGCNを開発する。
本手法は,階層型グラフのような混合ヘテロジニアストポロジーをサイクルでモデル化するのに十分柔軟である幾何学的帰納バイアスを与える。
論文 参考訳(メタデータ) (2021-06-06T14:23:34Z) - Two-layer neural networks with values in a Banach space [1.90365714903665]
本研究では,領域と範囲がバラッハ空間である2層ニューラルネットワークについて検討する。
非線形性として、正の部分を取る格子演算を選択し、$mathbb Rd$-valued ニューラルネットワークの場合、これはReLU活性化関数に対応する。
論文 参考訳(メタデータ) (2021-05-05T14:54:24Z) - Infinitely Wide Graph Convolutional Networks: Semi-supervised Learning
via Gaussian Processes [144.6048446370369]
グラフ畳み込みニューラルネットワーク(GCN)は近年,グラフに基づく半教師付き半教師付き分類において有望な結果を示した。
グラフに基づく半教師付き学習のためのGCN(GPGC)を用いたGP回帰モデルを提案する。
GPGCを評価するための広範囲な実験を行い、他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T10:02:32Z) - On the Convex Behavior of Deep Neural Networks in Relation to the
Layers' Width [99.24399270311069]
より広いネットワークにおいて、降下最適化による損失を最小限に抑え、トレーニングの開始時と終了時に正の曲率の表面を貫き、その間の曲率をほぼゼロにすることを観察する。
言い換えれば、トレーニングプロセスの重要な部分において、広いネットワークにおけるヘッセンはG成分によって支配されているようである。
論文 参考訳(メタデータ) (2020-01-14T16:30:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。