論文の概要: Quantum-Informed Contrastive Learning with Dynamic Mixup Augmentation for Class-Imbalanced Expert Systems
- arxiv url: http://arxiv.org/abs/2506.13987v1
- Date: Mon, 16 Jun 2025 20:44:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.242462
- Title: Quantum-Informed Contrastive Learning with Dynamic Mixup Augmentation for Class-Imbalanced Expert Systems
- Title(参考訳): クラス不均衡エキスパートシステムのための動的混合強化を用いた量子インフォーマルコントラスト学習
- Authors: Md Abrar Jahin, Adiba Abid, M. F. Mridha,
- Abstract要約: QCL-MixNetは、不均衡下でのロバストな分類のための動的混合のための新しいフレームワークである。
QCL-MixNetは、20の最先端の機械学習、ディープラーニング、GNNベースのベースラインをマクロF1とリコールで一貫して上回っていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Expert systems often operate in domains characterized by class-imbalanced tabular data, where detecting rare but critical instances is essential for safety and reliability. While conventional approaches, such as cost-sensitive learning, oversampling, and graph neural networks, provide partial solutions, they suffer from drawbacks like overfitting, label noise, and poor generalization in low-density regions. To address these challenges, we propose QCL-MixNet, a novel Quantum-Informed Contrastive Learning framework augmented with k-nearest neighbor (kNN) guided dynamic mixup for robust classification under imbalance. QCL-MixNet integrates three core innovations: (i) a Quantum Entanglement-inspired layer that models complex feature interactions through sinusoidal transformations and gated attention, (ii) a sample-aware mixup strategy that adaptively interpolates feature representations of semantically similar instances to enhance minority class representation, and (iii) a hybrid loss function that unifies focal reweighting, supervised contrastive learning, triplet margin loss, and variance regularization to improve both intra-class compactness and inter-class separability. Extensive experiments on 18 real-world imbalanced datasets (binary and multi-class) demonstrate that QCL-MixNet consistently outperforms 20 state-of-the-art machine learning, deep learning, and GNN-based baselines in macro-F1 and recall, often by substantial margins. Ablation studies further validate the critical role of each architectural component. Our results establish QCL-MixNet as a new benchmark for tabular imbalance handling in expert systems. Theoretical analyses reinforce its expressiveness, generalization, and optimization robustness.
- Abstract(参考訳): エキスパートシステムは、しばしば、クラス不均衡な表データによって特徴づけられる領域で運用される。
コストセンシティブな学習、オーバーサンプリング、グラフニューラルネットワークといった従来のアプローチは部分的なソリューションを提供するが、オーバーフィット、ラベルノイズ、低密度領域での一般化の低さといった欠点に悩まされている。
これらの課題に対処するために,k-nearest neighbor (kNN) を併用した新しい量子インフォームドコントラスト学習フレームワークであるQCL-MixNetを提案する。
QCL-MixNetは3つのコアイノベーションを統合している。
(i)正弦波変換とゲートアテンションを通じて複雑な特徴相互作用をモデル化する量子エンタングルメントにインスパイアされた層。
二 マイノリティクラス表現を強化するために、意味的に類似したインスタンスの特徴表現を適応的に補間するサンプル認識混合戦略
三 クラス内コンパクト性とクラス間分離性の両方を改善するために、焦点再重み付け、教師付きコントラスト学習、三重項マージン損失、分散正規化を統一するハイブリッド損失関数。
18の現実世界の不均衡データセット(バイナリとマルチクラス)に対する大規模な実験は、QCL-MixNetが、マクロF1とリコールにおいて、20の最先端の機械学習、ディープラーニング、GNNベースのベースラインを一貫して上回っていることを示している。
アブレーション研究は、各アーキテクチャコンポーネントの重要な役割をさらに検証する。
この結果から,QCL-MixNetはエキスパートシステムにおける表型不均衡処理のための新しいベンチマークとして確立された。
理論的解析は表現性、一般化、最適化の堅牢性を補強する。
関連論文リスト
- DyCAF-Net: Dynamic Class-Aware Fusion Network [0.0]
動的クラス・アウェア・フュージョン・ネットワーク(DyCAF-Net)について紹介する。
DyCAF-Netは13のベンチマークで精度、mAP@50、mAP@50-95を大幅に改善した。
分散のスケール、セマンティックオーバーラップ、およびクラス不均衡に対する適応性は、実世界の検出タスクの堅牢なソリューションとして位置づけられる。
論文 参考訳(メタデータ) (2025-08-05T16:06:26Z) - Quantum-Accelerated Neural Imputation with Large Language Models (LLMs) [0.0]
本稿では、浅い量子回路をLLMベースの計算アーキテクチャに統合する新しいフレームワークであるQuantum-UnIMPを紹介する。
ベンチマーク混合型データセットを用いた実験により, 数値特徴量(RMSE)の計算誤差を最大15.2%削減し, カテゴリー的特徴量(F1-Score)の分類精度を, 最先端の古典的手法とLLMベースの手法と比較して8.7%向上した。
論文 参考訳(メタデータ) (2025-07-11T02:00:06Z) - Unbiased Max-Min Embedding Classification for Transductive Few-Shot Learning: Clustering and Classification Are All You Need [83.10178754323955]
わずかなショットラーニングにより、モデルがいくつかのラベル付き例から一般化できる。
本稿では,Unbiased Max-Min Embedding Classification (UMMEC)法を提案する。
本手法は最小ラベル付きデータを用いて分類性能を著しく向上させ, 注釈付きLの最先端化を推し進める。
論文 参考訳(メタデータ) (2025-03-28T07:23:07Z) - LayerMix: Enhanced Data Augmentation through Fractal Integration for Robust Deep Learning [1.786053901581251]
ディープラーニングモデルは、アウト・オブ・ディストリビューション(OOD)のサンプルに直面すると、一貫したパフォーマンスを維持するのに苦労することが多い。
モデルロバスト性を体系的に強化する革新的なデータ拡張アプローチであるLayerMixを紹介する。
本手法は,ニューラルネットワークの一般化能力を大幅に向上させる意味論的一貫した合成サンプルを生成する。
論文 参考訳(メタデータ) (2025-01-08T22:22:44Z) - Pushing Boundaries: Mixup's Influence on Neural Collapse [3.6919724596215615]
Mixupは、深層ニューラルネットワークの堅牢性とキャリブレーションを強化するために、トレーニングインスタンスと各ラベルの凸結合を利用するデータ拡張戦略である。
本研究では,ミックスアップを受ける深層ネットワークにおけるトレーニングデータの最終層活性化について検討した。
ここでは,Mixupの最終層活性化が,期待と異なる独特の構成に主に収束していることを示す。
論文 参考訳(メタデータ) (2024-02-09T04:01:25Z) - Uncertainty-guided Boundary Learning for Imbalanced Social Event
Detection [64.4350027428928]
本研究では,不均衡なイベント検出タスクのための不確実性誘導型クラス不均衡学習フレームワークを提案する。
我々のモデルは、ほとんど全てのクラス、特に不確実なクラスにおいて、社会イベントの表現と分類タスクを大幅に改善する。
論文 参考訳(メタデータ) (2023-10-30T03:32:04Z) - Tackling Diverse Minorities in Imbalanced Classification [80.78227787608714]
不均衡データセットは、様々な現実世界のアプリケーションで一般的に見られ、分類器の訓練において重要な課題が提示されている。
マイノリティクラスとマイノリティクラスの両方のデータサンプルを混合することにより、反復的に合成サンプルを生成することを提案する。
提案するフレームワークの有効性を,7つの公開ベンチマークデータセットを用いて広範な実験により実証する。
論文 参考訳(メタデータ) (2023-08-28T18:48:34Z) - Problem-Dependent Power of Quantum Neural Networks on Multi-Class
Classification [83.20479832949069]
量子ニューラルネットワーク(QNN)は物理世界を理解する上で重要なツールとなっているが、その利点と限界は完全には理解されていない。
本稿では,多クラス分類タスクにおけるQCの問題依存力について検討する。
我々の研究はQNNの課題依存力に光を当て、その潜在的なメリットを評価するための実践的なツールを提供する。
論文 参考訳(メタデータ) (2022-12-29T10:46:40Z) - General Incremental Learning with Domain-aware Categorical
Representations [37.68376996568006]
本研究では,EMフレームワークに基づく新しいドメイン認識連続学習手法を提案する。
具体的には、von Mises-Fisher混合モデルに基づくフレキシブルなクラス表現を導入し、クラス内構造をキャプチャする。
本研究では, クラス内およびクラス間のデータ不均衡に対処するバイレベルバランスメモリを設計し, 蒸留損失と組み合わせて, クラス間およびクラス内安定性・塑性トレードオフを改善する。
論文 参考訳(メタデータ) (2022-04-08T13:57:33Z) - Towards Balanced Learning for Instance Recognition [149.76724446376977]
本稿では,インスタンス認識のためのバランス学習のためのフレームワークであるLibra R-CNNを提案する。
IoUバランスのサンプリング、バランスの取れた特徴ピラミッド、客観的再重み付けをそれぞれ統合し、サンプル、特徴、客観的レベルの不均衡を低減します。
論文 参考訳(メタデータ) (2021-08-23T13:40:45Z) - Analyzing Overfitting under Class Imbalance in Neural Networks for Image
Segmentation [19.259574003403998]
画像分割では、ニューラルネットワークは小さな構造物の前景サンプルに過剰に適合する可能性がある。
本研究では,ネットワークの動作を検査することにより,クラス不均衡下でのオーバーフィッティング問題に対する新たな知見を提供する。
論文 参考訳(メタデータ) (2021-02-20T14:57:58Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。