論文の概要: Quantum-Informed Contrastive Learning with Dynamic Mixup Augmentation for Class-Imbalanced Expert Systems
- arxiv url: http://arxiv.org/abs/2506.13987v2
- Date: Thu, 19 Jun 2025 14:18:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 12:57:34.507193
- Title: Quantum-Informed Contrastive Learning with Dynamic Mixup Augmentation for Class-Imbalanced Expert Systems
- Title(参考訳): クラス不均衡エキスパートシステムのための動的混合強化を用いた量子インフォーマルコントラスト学習
- Authors: Md Abrar Jahin, Adiba Abid, M. F. Mridha,
- Abstract要約: QCL-MixNetは、不均衡下でのロバストな分類のための動的混合のための新しいフレームワークである。
QCL-MixNetは、20の最先端の機械学習、ディープラーニング、GNNベースのベースラインをマクロF1とリコールで一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Expert systems often operate in domains characterized by class-imbalanced tabular data, where detecting rare but critical instances is essential for safety and reliability. While conventional approaches, such as cost-sensitive learning, oversampling, and graph neural networks, provide partial solutions, they suffer from drawbacks like overfitting, label noise, and poor generalization in low-density regions. To address these challenges, we propose QCL-MixNet, a novel Quantum-Informed Contrastive Learning framework augmented with k-nearest neighbor (kNN) guided dynamic mixup for robust classification under imbalance. QCL-MixNet integrates three core innovations: (i) a Quantum Entanglement-inspired layer that models complex feature interactions through sinusoidal transformations and gated attention, (ii) a sample-aware mixup strategy that adaptively interpolates feature representations of semantically similar instances to enhance minority class representation, and (iii) a hybrid loss function that unifies focal reweighting, supervised contrastive learning, triplet margin loss, and variance regularization to improve both intra-class compactness and inter-class separability. Extensive experiments on 18 real-world imbalanced datasets (binary and multi-class) demonstrate that QCL-MixNet consistently outperforms 20 state-of-the-art machine learning, deep learning, and GNN-based baselines in macro-F1 and recall, often by substantial margins. Ablation studies further validate the critical role of each architectural component. Our results establish QCL-MixNet as a new benchmark for tabular imbalance handling in expert systems. Theoretical analyses reinforce its expressiveness, generalization, and optimization robustness.
- Abstract(参考訳): エキスパートシステムは、しばしば、クラス不均衡な表データによって特徴づけられる領域で運用される。
コストセンシティブな学習、オーバーサンプリング、グラフニューラルネットワークといった従来のアプローチは部分的なソリューションを提供するが、オーバーフィット、ラベルノイズ、低密度領域での一般化の低さといった欠点に悩まされている。
これらの課題に対処するために,k-nearest neighbor (kNN) を併用した新しい量子インフォームドコントラスト学習フレームワークであるQCL-MixNetを提案する。
QCL-MixNetは3つのコアイノベーションを統合している。
(i)正弦波変換とゲートアテンションを通じて複雑な特徴相互作用をモデル化する量子エンタングルメントにインスパイアされた層。
二 マイノリティクラス表現を強化するために、意味的に類似したインスタンスの特徴表現を適応的に補間するサンプル認識混合戦略
三 クラス内コンパクト性とクラス間分離性の両方を改善するために、焦点再重み付け、教師付きコントラスト学習、三重項マージン損失、分散正規化を統一するハイブリッド損失関数。
18の現実世界の不均衡データセット(バイナリとマルチクラス)に対する大規模な実験は、QCL-MixNetが、マクロF1とリコールにおいて、20の最先端の機械学習、ディープラーニング、GNNベースのベースラインを一貫して上回っていることを示している。
アブレーション研究は、各アーキテクチャコンポーネントの重要な役割をさらに検証する。
この結果から,QCL-MixNetはエキスパートシステムにおける表型不均衡処理のための新しいベンチマークとして確立された。
理論的解析は表現性、一般化、最適化の堅牢性を補強する。
関連論文リスト
- Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - LayerMix: Enhanced Data Augmentation through Fractal Integration for Robust Deep Learning [1.786053901581251]
ディープラーニングモデルは、アウト・オブ・ディストリビューション(OOD)のサンプルに直面すると、一貫したパフォーマンスを維持するのに苦労することが多い。
モデルロバスト性を体系的に強化する革新的なデータ拡張アプローチであるLayerMixを紹介する。
本手法は,ニューラルネットワークの一般化能力を大幅に向上させる意味論的一貫した合成サンプルを生成する。
論文 参考訳(メタデータ) (2025-01-08T22:22:44Z) - Pushing Boundaries: Mixup's Influence on Neural Collapse [3.6919724596215615]
Mixupは、深層ニューラルネットワークの堅牢性とキャリブレーションを強化するために、トレーニングインスタンスと各ラベルの凸結合を利用するデータ拡張戦略である。
本研究では,ミックスアップを受ける深層ネットワークにおけるトレーニングデータの最終層活性化について検討した。
ここでは,Mixupの最終層活性化が,期待と異なる独特の構成に主に収束していることを示す。
論文 参考訳(メタデータ) (2024-02-09T04:01:25Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - General Incremental Learning with Domain-aware Categorical
Representations [37.68376996568006]
本研究では,EMフレームワークに基づく新しいドメイン認識連続学習手法を提案する。
具体的には、von Mises-Fisher混合モデルに基づくフレキシブルなクラス表現を導入し、クラス内構造をキャプチャする。
本研究では, クラス内およびクラス間のデータ不均衡に対処するバイレベルバランスメモリを設計し, 蒸留損失と組み合わせて, クラス間およびクラス内安定性・塑性トレードオフを改善する。
論文 参考訳(メタデータ) (2022-04-08T13:57:33Z) - Towards Balanced Learning for Instance Recognition [149.76724446376977]
本稿では,インスタンス認識のためのバランス学習のためのフレームワークであるLibra R-CNNを提案する。
IoUバランスのサンプリング、バランスの取れた特徴ピラミッド、客観的再重み付けをそれぞれ統合し、サンプル、特徴、客観的レベルの不均衡を低減します。
論文 参考訳(メタデータ) (2021-08-23T13:40:45Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。