論文の概要: Complex-Valued Unitary Representations as Classification Heads for Improved Uncertainty Quantification in Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2602.15283v1
- Date: Tue, 17 Feb 2026 00:45:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.948626
- Title: Complex-Valued Unitary Representations as Classification Heads for Improved Uncertainty Quantification in Deep Neural Networks
- Title(参考訳): 深部ニューラルネットワークにおける不確実性定量化のための分類ヘッドとしての複素値ユニタリ表現
- Authors: Akbar Anbar Jafari, Cagri Ozcinar, Gholamreza Anbarjafari,
- Abstract要約: 現代のディープニューラルネットワークは高い予測精度を達成するが、キャリブレーションは不十分である。
本稿では、バックボーンの特徴を複素値空間に投影する量子インスピレーション付き分類ヘッドアーキテクチャを提案する。
CIFAR-10のアブレーション実験により, 統一等級ヘッド(カイリーユニタリ, マグニチュード, ソフトマックスで読み出す複雑な特徴)が0.0146の予測誤差(ECE)を達成し, 標準ソフトマックスヘッドの2.4倍の改善を示した。
驚くべきことに、ソフトマックスの読み出しをヒルベルト則測定層(量子力学的に動機づけられたアプローチ)に置き換えると、キャリブレーションは0.0819に低下する。
- 参考スコア(独自算出の注目度): 1.932555230783329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern deep neural networks achieve high predictive accuracy but remain poorly calibrated: their confidence scores do not reliably reflect the true probability of correctness. We propose a quantum-inspired classification head architecture that projects backbone features into a complex-valued Hilbert space and evolves them under a learned unitary transformation parameterised via the Cayley map. Through a controlled hybrid experimental design - training a single shared backbone and comparing lightweight interchangeable heads - we isolate the effect of complex-valued unitary representations on calibration. Our ablation study on CIFAR-10 reveals that the unitary magnitude head (complex features evolved under a Cayley unitary, read out via magnitude and softmax) achieves an Expected Calibration Error (ECE) of 0.0146, representing a 2.4x improvement over a standard softmax head (0.0355) and a 3.5x improvement over temperature scaling (0.0510). Surprisingly, replacing the softmax readout with a Born rule measurement layer - the quantum-mechanically motivated approach - degrades calibration to an ECE of 0.0819. On the CIFAR-10H human-uncertainty benchmark, the wave function head achieves the lowest KL-divergence (0.336) to human soft labels among all compared methods, indicating that complex-valued representations better capture the structure of human perceptual ambiguity. We provide theoretical analysis connecting norm-preserving unitary dynamics to calibration through feature-space geometry, report negative results on out-of-distribution detection and sentiment analysis to delineate the method's scope, and discuss practical implications for safety-critical applications. Code is publicly available.
- Abstract(参考訳): 現代のディープニューラルネットワークは高い予測精度を達成できるが、精度が低いままであり、信頼度スコアは真の正しさの確率を確実に反映していない。
本稿では、バックボーンの特徴を複素数値ヒルベルト空間に投影し、ケイリー写像を介してパラメータ化された学習ユニタリ変換の下で進化させる量子インスピレーション付き分類ヘッドアーキテクチャを提案する。
単一の共有バックボーンをトレーニングし、軽量な交換可能なヘッドを比較することによって、複雑な値のユニタリ表現がキャリブレーションに与える影響を分離する。
CIFAR-10のアブレーション実験では, 標準ソフトマックスヘッド (0.0355) の2.4倍, 温度スケーリング (0.0510) の3.5倍の改善が期待できるキャリブレーション誤差 (ECE) が0。
驚くべきことに、ソフトマックスの読み出しを、量子力学的に動機づけられたアプローチであるボルンのルール測定層に置き換えると、キャリブレーションは0.0819に低下する。
CIFAR-10Hの人間不確実性ベンチマークでは、波動関数ヘッドは、人間のソフトラベルに対する最低KL偏差(0.336)を達成する。
本稿では,標準保存ユニタリ力学と特徴空間幾何学によるキャリブレーションを結合する理論解析を行い,分布外検出と感情分析の負の結果を報告し,その手法のスコープを明確化し,安全クリティカルな応用への実践的影響について議論する。
コードは公開されている。
関連論文リスト
- Constraint-Aware Neurosymbolic Uncertainty Quantification with Bayesian Deep Learning for Scientific Discovery [0.0]
既存の不確実な定量化手法には、象徴的な科学的知識を組み込むメカニズムが欠けている。
本稿では,識別可能なシンボル推論によるベイズ的深層学習を統一するConstraint-Aware Neurosymbolic Uncertainity Framework (CANUF)を紹介する。
論文 参考訳(メタデータ) (2026-01-18T14:57:35Z) - Geometric Calibration and Neutral Zones for Uncertainty-Aware Multi-Class Classification [0.0]
この研究は情報幾何学と統計的学習を橋渡しし、厳密な検証を必要とするアプリケーションにおいて不確実性を認識した分類の正式な保証を提供する。
アデノ関連ウイルスの分類に関する実証的な検証は、2段階のフレームワークが72.5%のエラーをキャプチャし、34.5%のサンプルを遅延させ、自動決定エラー率を16.8%から6.9%に下げていることを示している。
論文 参考訳(メタデータ) (2025-11-26T01:29:49Z) - Knowledge-Informed Neural Network for Complex-Valued SAR Image Recognition [51.03674130115878]
本稿では,新しい「圧縮集約圧縮」アーキテクチャ上に構築された軽量なフレームワークであるKnowledge-Informed Neural Network(KINN)を紹介する。
KINNはパラメータ効率の認識における最先端を確立し、データスカースとアウト・オブ・ディストリビューションのシナリオにおいて例外的な一般化を提供する。
論文 参考訳(メタデータ) (2025-10-23T07:12:26Z) - Precise Bayesian Neural Networks [0.0]
我々は,現代的な正規化アーキテクチャに適合し,精度を犠牲にすることなくキャリブレーションを改善する軽量で実装可能な変分ユニットを開発した。
簡単に言えば、変分後部をネットワーク固有の幾何学と整合させることで、BNNは同時に原理化され、実用的で、正確である。
論文 参考訳(メタデータ) (2025-06-24T15:42:00Z) - NeuralSurv: Deep Survival Analysis with Bayesian Uncertainty Quantification [42.418429168532406]
我々はベイズの不確実性定量化を取り入れた最初のディープサバイバルモデルであるNeuralSurvを紹介する。
モデルサイズを線形にスケールする座標アセット更新を用いた平均場変分アルゴリズムを導入する。
実験では、NeuralSurvは最先端のディープサバイバルモデルよりも優れたキャリブレーションを提供する。
論文 参考訳(メタデータ) (2025-05-16T09:53:21Z) - Hybrid Quantum Neural Networks with Amplitude Encoding: Advancing Recovery Rate Predictions [6.699192644249841]
回収率予測は、リスク評価の強化、ポートフォリオ割り当ての最適化、価格精度の向上など、債券投資戦略において重要な役割を担っている。
本稿では,Amplitudeを用いたハイブリッド量子機械学習(QML)モデルを提案する。
我々は1996年から2023年までの1,725の観測結果からなる地球規模の回復率データセット上でモデルを評価した。
論文 参考訳(メタデータ) (2025-01-27T07:27:23Z) - Decoupling of neural network calibration measures [45.70855737027571]
本稿では,AUSE(Area Under Sparsification Error curve)測定値に焦点をあてて,異なるニューラルネットワークキャリブレーション尺度の結合について検討する。
本稿では,現行の手法は自由度を保ち,安全クリティカルな機能のホモログ化のユニークなモデルを妨げると結論付けている。
論文 参考訳(メタデータ) (2024-06-04T15:21:37Z) - Towards Calibrated Deep Clustering Network [60.71776081164377]
ディープクラスタリングでは、特定のクラスタに属するサンプルに対する推定信頼度はその実際の予測精度を大きく上回る。
推定された信頼度と実際の精度を効果的にキャリブレーションできる新しいデュアルヘッド(キャリブレーションヘッドとクラスタリングヘッド)深層クラスタリングモデルを提案する。
提案したキャリブレーション深層クラスタリングモデルでは, キャリブレーション誤差の予測値において, 最先端の深部クラスタリング手法を平均5倍に越えるだけでなく, クラスタリング精度も大幅に向上する。
論文 参考訳(メタデータ) (2024-03-04T11:23:40Z) - Understanding, Predicting and Better Resolving Q-Value Divergence in
Offline-RL [86.0987896274354]
まず、オフラインRLにおけるQ値推定のばらつきの主な原因として、基本パターン、自己励起を同定する。
そこで本研究では,Q-network の学習における進化特性を測定するために,SEEM(Self-Excite Eigen Value Measure)尺度を提案する。
われわれの理論では、訓練が早期に発散するかどうかを確実に決定できる。
論文 参考訳(メタデータ) (2023-10-06T17:57:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。