論文の概要: Learning Robust Representations for Malicious Content Detection via Contrastive Sampling and Uncertainty Estimation
- arxiv url: http://arxiv.org/abs/2512.08969v1
- Date: Mon, 01 Dec 2025 22:06:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.234139
- Title: Learning Robust Representations for Malicious Content Detection via Contrastive Sampling and Uncertainty Estimation
- Title(参考訳): コントラストサンプリングと不確実性推定による悪意コンテンツ検出のためのロバスト表現の学習
- Authors: Elias Hossain, Umesh Biswas, Charan Gudla, Sai Phani Parsa,
- Abstract要約: 不確実性コントラストフレームワーク(UCF)は、不確実性を考慮したコントラスト損失、適応温度スケーリング、自己注意誘導型LSTMエンコーダを統合し、ノイズおよび不均衡条件下での分類を改善する。
UCFはサンプルの信頼度に基づいて対照的な重み付けを動的に調整し、正のアンカーを用いたトレーニングを安定化し、温度パラメータをバッチレベルの可変性に適応させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the Uncertainty Contrastive Framework (UCF), a Positive-Unlabeled (PU) representation learning framework that integrates uncertainty-aware contrastive loss, adaptive temperature scaling, and a self-attention-guided LSTM encoder to improve classification under noisy and imbalanced conditions. UCF dynamically adjusts contrastive weighting based on sample confidence, stabilizes training using positive anchors, and adapts temperature parameters to batch-level variability. Applied to malicious content classification, UCF-generated embeddings enable multiple traditional classifiers to achieve more than 93.38% accuracy, precision above 0.93, and near-perfect recall, with minimal false negatives and competitive ROC-AUC scores. Visual analyses confirm clear separation between positive and unlabeled instances, highlighting the framework's ability to produce calibrated, discriminative embeddings. These results position UCF as a robust and scalable solution for PU learning in high-stakes domains such as cybersecurity and biomedical text mining.
- Abstract(参考訳): 本研究では,不確実性対応のコントラスト損失,適応温度スケーリング,および自己注意誘導型LSTMエンコーダを統合し,雑音や不均衡条件下での分類を改善するための,肯定的無ラベル(PU)表現学習フレームワークであるUncertainty Contrastive Framework(UCF)を提案する。
UCFはサンプルの信頼度に基づいて対照的な重み付けを動的に調整し、正のアンカーを用いたトレーニングを安定化し、温度パラメータをバッチレベルの可変性に適応させる。
悪意のあるコンテンツ分類に適用すると、UCF生成の埋め込みにより、複数の伝統的な分類器は93.38%以上の精度、0.93以上の精度、ほぼ完璧なリコールを達成でき、最小の偽陰性と競合するROC-AUCスコアを持つ。
ビジュアル分析は、肯定的なインスタンスと未ラベルのインスタンスの明確な分離を確認し、フレームワークがキャリブレーションされた差別的な埋め込みを生成する能力を強調している。
これらの結果は、UCFをサイバーセキュリティやバイオメディカルテキストマイニングといった高度な分野におけるPU学習の堅牢でスケーラブルなソリューションとして位置づけている。
関連論文リスト
- Deciding When Not to Decide: Indeterminacy-Aware Intrusion Detection with NeutroSENSE [0.0]
NeutroSENSEは、IoT環境における侵入検出を解釈するためのニュートロゾフィックのアンサンブルフレームワークである。
システムは予測信頼を真理(T)、虚偽(F)、不確定性(I)に分解し、不確実な定量化と棄却を可能にする。
論文 参考訳(メタデータ) (2025-06-05T11:43:31Z) - Adversarial Robustness Overestimation and Instability in TRADES [4.063518154926961]
TRADES は多クラス分類タスクにおける AutoAttack テストの精度と比較して,PGD の検証精度が極めて高い場合が多い。
この矛盾は、勾配マスキングに結びつく可能性のある、これらのインスタンスに対するロバストネスのかなりの過大評価を浮き彫りにする。
論文 参考訳(メタデータ) (2024-10-10T07:32:40Z) - MixedNUTS: Training-Free Accuracy-Robustness Balance via Nonlinearly Mixed Classifiers [41.56951365163419]
MixedNUTSは、ロバストな分類器の出力ロジットを3つのパラメータしか持たない非線形変換で処理する訓練不要の手法である。
MixedNUTSは変換されたロジットを確率に変換し、それらを全体の出力として混合する。
CIFAR-10、CIFAR-100、ImageNetデータセットでは、MixedNUTSの精度とほぼSOTAの堅牢性を大幅に改善した。
論文 参考訳(メタデータ) (2024-02-03T21:12:36Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Towards Reliable Medical Image Segmentation by Modeling Evidential Calibrated Uncertainty [57.023423137202485]
医用画像のセグメンテーションの信頼性に関する懸念が臨床医の間で続いている。
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を活用することで、医用画像分割の確率と不確実性を明示的にモデル化する。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - SmoothMix: Training Confidence-calibrated Smoothed Classifiers for
Certified Robustness [61.212486108346695]
自己混合によるスムーズな分類器のロバスト性を制御するためのトレーニングスキームSmoothMixを提案する。
提案手法は, 厳密性に制限された原因として, 信頼性の低い, オフクラスに近いサンプルを効果的に同定する。
提案手法はスムーズな分類器の検証値である$ell$-robustnessを大幅に改善できることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:20:59Z) - Adversarial Training with Rectified Rejection [114.83821848791206]
本稿では,信頼度(T-Con)を確実性オラクルとして利用し,信頼度を補正してT-Conを予測することを提案する。
軽度の条件下では、正当性(R-Con)拒絶器と信頼性(R-Con)拒絶器を結合して、不正に分類された入力と正しく分類された入力を区別できることを示す。
論文 参考訳(メタデータ) (2021-05-31T08:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。