論文の概要: Beyond the Markovian Assumption: Robust Optimization via Fractional Weyl Integrals in Imbalanced Data
- arxiv url: http://arxiv.org/abs/2603.08377v1
- Date: Mon, 09 Mar 2026 13:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.099211
- Title: Beyond the Markovian Assumption: Robust Optimization via Fractional Weyl Integrals in Imbalanced Data
- Title(参考訳): マルコフ推定の超越:不均衡データにおけるフラクショナルワイル積分によるロバスト最適化
- Authors: Gustavo A. Dorrego,
- Abstract要約: 本稿では, フラクタル計算に基づく新しい最適化アルゴリズムを提案する。
一般化された分数微分のコアメモリエンジンを分離することにより、瞬時勾配を動的に重み付けされた履歴列に置き換える。
実験により,本手法は医学診断の過度な適合を防ぎ,古典学よりもPRAUCが約40%向上することが確認された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard Gradient Descent and its modern variants assume local, Markovian weight updates, making them highly susceptible to noise and overfitting. This limitation becomes critically severe in extremely imbalanced datasets such as financial fraud detection where dominant class gradients systematically overwrite the subtle signals of the minority class. In this paper, we introduce a novel optimization algorithm grounded in Fractional Calculus. By isolating the core memory engine of the generalized fractional derivative, the Weighted Fractional Weyl Integral, we replace the instantaneous gradient with a dynamically weighted historical sequence. This fractional memory operator acts as a natural regularizer. Empirical evaluations demonstrate that our method prevents overfitting in medical diagnostics and achieves an approximately 40 percent improvement in PR-AUC over classical optimizers in financial fraud detection, establishing a robust bridge between pure fractional topology and applied Machine Learning.
- Abstract(参考訳): 標準グラディエント・ディクセントとその現代の変種は局所的、マルコフ的な重み付けを前提としており、ノイズや過度な適合に非常に敏感である。
この制限は、マイノリティ階級の微妙なシグナルを体系的に上書きする金融詐欺検出など、極めて不均衡なデータセットにおいて致命的に深刻になる。
本稿では, フラクタル計算に基づく新しい最適化アルゴリズムを提案する。
一般化された分数微分のコアメモリエンジンであるWeighted Fractional Weyl Integralを分離することにより、瞬時勾配を動的に重み付けされた履歴列に置き換える。
この分数メモリ演算子は自然な正則化器として機能する。
実証評価の結果,本手法は医療診断の過度な適合を防ぎ,金融詐欺検出における古典的最適化よりもPR-AUCが約40%向上し,純粋分数位相と応用機械学習の堅牢な橋梁が確立された。
関連論文リスト
- Stability and Generalization of Nonconvex Optimization with Heavy-Tailed Noise [24.27538723361077]
重み付き雑音下で境界を確立するための一般的な枠組みを開発する。
重み付き雑音下でのいくつかの人気アルゴリズムの安定性と一般化解析について述べる。
論文 参考訳(メタデータ) (2026-01-27T15:50:57Z) - Modular Distributed Nonconvex Learning with Error Feedback [1.3198143828338362]
圧縮通信を用いた新しい分散学習アルゴリズムを設計する。
より詳しくは、モジュラーアプローチ、ADMM、勾配に基づくアプローチを追求する。
論文 参考訳(メタデータ) (2025-03-18T09:16:51Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Training More Robust Classification Model via Discriminative Loss and Gaussian Noise Injection [7.535952418691443]
本稿では,クラス内コンパクト性を明示する最小層に適用した損失関数を提案する。
また、ノイズの多いデータクラスタをクリーンなクラスタに近づける、クラスワイズな機能アライメント機構を提案する。
提案手法は, クリーンなデータに対して高い精度を維持しながら, 各種摂動に対するモデルロバスト性を大幅に強化する。
論文 参考訳(メタデータ) (2024-05-28T18:10:45Z) - Semi-Supervised Laplace Learning on Stiefel Manifolds [48.3427853588646]
グラフベースで教師付きサンプルを低ラベルレートで作成するためのフレームワークSequential Subspaceを開発した。
我々の手法は極めて低いレートで、高いラベルレートで達成できる。
論文 参考訳(メタデータ) (2023-07-31T20:19:36Z) - Limitations of Information-Theoretic Generalization Bounds for Gradient
Descent Methods in Stochastic Convex Optimization [48.12845778927164]
凸最適化の設定において,勾配勾配降下の最小値設定の見通しを考察する。
勾配法の研究においてよく用いられる手法として、最終回はガウス雑音によって劣化し、ノイズの多い「代理」アルゴリズムが生成される。
以上の結果から,情報理論を用いた勾配降下解析には新たな考え方が必要であることが示唆された。
論文 参考訳(メタデータ) (2022-12-27T17:16:48Z) - Learning with Multiclass AUC: Theory and Algorithms [141.63211412386283]
ROC曲線 (AUC) の下の領域は、不均衡学習やレコメンダシステムといった問題に対するよく知られたランキング基準である。
本稿では,マルチクラスAUCメトリクスを最適化することで,多クラススコアリング関数を学習する問題について検討する。
論文 参考訳(メタデータ) (2021-07-28T05:18:10Z) - Differentiable Annealed Importance Sampling and the Perils of Gradient
Noise [68.44523807580438]
Annealed importance sample (AIS) と関連するアルゴリズムは、限界推定のための非常に効果的なツールである。
差別性は、目的として限界確率を最適化する可能性を認めるため、望ましい性質である。
我々はメトロポリス・ハスティングスのステップを放棄して微分可能アルゴリズムを提案し、ミニバッチ計算をさらに解き放つ。
論文 参考訳(メタデータ) (2021-07-21T17:10:14Z) - Learning Prediction Intervals for Regression: Generalization and
Calibration [12.576284277353606]
不確実性定量のための回帰における予測間隔の生成について検討する。
我々は一般学習理論を用いて、リプシッツ連続性とVC-サブグラフクラスを含む最適性と実現可能性のトレードオフを特徴づける。
我々は既存のベンチマークと比べてテスト性能の点で、区間生成とキャリブレーションアルゴリズムの強みを実証的に示している。
論文 参考訳(メタデータ) (2021-02-26T17:55:30Z) - Multiplicative noise and heavy tails in stochastic optimization [62.993432503309485]
経験的最適化は現代の機械学習の中心であるが、その成功における役割はまだ不明である。
分散による離散乗法雑音のパラメータによく現れることを示す。
最新のステップサイズやデータを含む重要な要素について、詳細な分析を行い、いずれも最先端のニューラルネットワークモデルで同様の結果を示す。
論文 参考訳(メタデータ) (2020-06-11T09:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。