論文の概要: Quantum Probabilistic Label Refining: Enhancing Label Quality for Robust Image Classification
- arxiv url: http://arxiv.org/abs/2510.00528v1
- Date: Wed, 01 Oct 2025 05:21:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 21:54:12.79562
- Title: Quantum Probabilistic Label Refining: Enhancing Label Quality for Robust Image Classification
- Title(参考訳): 量子確率ラベル精錬:ロバスト画像分類におけるラベル品質の向上
- Authors: Fang Qi, Lu Peng, Zhengming Ding,
- Abstract要約: 1ホットラベルでのソフトマックスのクロスエントロピーによる学習は、しばしばノイズや摂動下での過信的な予測や頑丈さの低下につながる。
本稿では、量子非決定性を利用してデータラベルを確率論的に洗練するハイブリッド量子古典フレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.87772545335523
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Learning with softmax cross-entropy on one-hot labels often leads to overconfident predictions and poor robustness under noise or perturbations. Label smoothing mitigates this by redistributing some confidence uniformly, but treats all samples equally, ignoring intra-class variability. We propose a hybrid quantum-classical framework that leverages quantum non-determinism to refine data labels into probabilistic ones, offering more nuanced, human-like uncertainty representations than label smoothing or Bayesian approaches. A variational quantum circuit (VQC) encodes inputs into multi-qubit quantum states, using entanglement and superposition to capture subtle feature correlations. Measurement via the Born rule extracts probabilistic soft labels that reflect input-specific uncertainty. These labels are then used to train a classical convolutional neural network (CNN) with soft-target cross-entropy loss. On MNIST and Fashion-MNIST, our method improves robustness, achieving up to 50% higher accuracy under noise while maintaining competitive accuracy on clean data. It also enhances model calibration and interpretability, as CNN outputs better reflect quantum-derived uncertainty. This work introduces Quantum Probabilistic Label Refining, bridging quantum measurement and classical deep learning for robust training via refined, correlation-aware labels without architectural changes or adversarial techniques.
- Abstract(参考訳): 1ホットラベルでのソフトマックスのクロスエントロピーによる学習は、しばしばノイズや摂動下での過信的な予測や頑丈さの低下につながる。
ラベルの平滑化は、ある程度の信頼を再分配することによってこれを緩和するが、全てのサンプルを等しく扱い、クラス内の変動を無視する。
我々は、量子非決定性を利用して、データラベルを確率論的に洗練し、ラベルの平滑化やベイズ的アプローチよりも、よりニュアンスな人間のような不確実性表現を提供するハイブリッド量子古典的フレームワークを提案する。
変分量子回路(VQC)は、絡み合いと重畳を用いて入力を多ビット量子状態に符号化し、微妙な特徴相関を捉える。
ボルン規則による測定は、入力固有の不確実性を反映した確率的ソフトラベルを抽出する。
これらのラベルは、ソフトターゲットのクロスエントロピー損失を持つ古典的畳み込みニューラルネットワーク(CNN)のトレーニングに使用される。
MNISTとFashion-MNISTでは、クリーンなデータに対する競合精度を維持しつつ、ノイズ下で最大50%高い精度を達成し、ロバスト性を向上させる。
また、CNNが量子起源の不確実性をよりよく反映するので、モデルのキャリブレーションと解釈可能性も向上する。
この研究は、量子確率ラベルの精錬、ブリッジング量子計測、古典的なディープラーニングを導入し、アーキテクチャの変更や対角的なテクニックを使わずに、洗練された相関対応ラベルによる堅牢なトレーニングを可能にした。
関連論文リスト
- A Quantum Bagging Algorithm with Unsupervised Base Learners for Label Corrupted Datasets [2.850389822151216]
本稿では,QMeansクラスタリングをベース学習として用いて,予測分散を低減し,ラベルノイズに対するロバスト性を高める量子バッグングフレームワークを提案する。
提案した量子バッグングアルゴリズムは,従来のKMeansと同等に動作し,教師付きバッグング法よりもラベルの破損に対するレジリエンスが高いことを示した。
論文 参考訳(メタデータ) (2025-09-08T09:34:33Z) - Quantum Active Learning [3.3202982522589934]
量子ニューラルネットワークのトレーニングは通常、教師付き学習のための実質的なラベル付きトレーニングセットを必要とする。
QALはモデルを効果的にトレーニングし、完全にラベル付けされたデータセットに匹敵するパフォーマンスを達成する。
我々は,QALがランダムサンプリングベースラインに乗じて負の結果を微妙な数値実験により解明する。
論文 参考訳(メタデータ) (2024-05-28T14:39:54Z) - Uncertainty-aware Self-training for Low-resource Neural Sequence
Labeling [29.744621356187764]
本稿では,ニューラルシークエンスラベリング(NSL)のための新しい未知の自己学習フレームワークSeqUSTを提案する。
ベイジアンニューラルネットワーク(BNN)にモンテカルロ(MC)ドロップアウトを組み込んでトークンレベルで不確実性評価を行い、ラベルのないデータから信頼性の高い言語トークンを選択する。
ノイズロスのあるマスク付きシークエンスラベリングタスクは、ノイズのある擬似ラベルの問題を抑えることを目的とした堅牢なトレーニングを支援する。
論文 参考訳(メタデータ) (2023-02-17T02:40:04Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - CLS: Cross Labeling Supervision for Semi-Supervised Learning [9.929229055862491]
Cross Labeling Supervision (CLS) は、典型的な擬似ラベル処理を一般化するフレームワークである。
CLSは擬似ラベルと相補ラベルの両方を作成でき、正と負の両方の学習をサポートする。
論文 参考訳(メタデータ) (2022-02-17T08:09:40Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Cluster-Promoting Quantization with Bit-Drop for Minimizing Network
Quantization Loss [61.26793005355441]
クラスタ・プロモーティング・量子化(CPQ)は、ニューラルネットワークに最適な量子化グリッドを見つける。
DropBitsは、ニューロンの代わりにランダムにビットをドロップする標準のドロップアウト正規化を改訂する新しいビットドロップ技術である。
本手法を様々なベンチマークデータセットとネットワークアーキテクチャ上で実験的に検証する。
論文 参考訳(メタデータ) (2021-09-05T15:15:07Z) - In Defense of Pseudo-Labeling: An Uncertainty-Aware Pseudo-label
Selection Framework for Semi-Supervised Learning [53.1047775185362]
Pseudo-labeling (PL) は一般的な SSL アプローチで、この制約はありませんが、当初の処方では比較的不十分です。
PLは不整合モデルからの誤った高い信頼度予測により性能が低下していると論じる。
そこで本研究では,疑似ラベリング精度を向上させるための不確実性認識型擬似ラベル選択(ups)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-15T23:29:57Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Quantum noise protects quantum classifiers against adversaries [120.08771960032033]
量子情報処理におけるノイズは、特に短期的な量子技術において、破壊的で避け難い特徴と見なされることが多い。
量子回路の非偏極雑音を利用して分類を行うことにより、敵に縛られるロバスト性を導出できることを示す。
これは、最も一般的な敵に対して使用できる最初の量子プロトコルである。
論文 参考訳(メタデータ) (2020-03-20T17:56:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。