論文の概要: One Class Restricted Kernel Machines
- arxiv url: http://arxiv.org/abs/2502.10443v1
- Date: Tue, 11 Feb 2025 07:11:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 20:34:44.445079
- Title: One Class Restricted Kernel Machines
- Title(参考訳): 一級制限カーネルマシン
- Authors: A. Quadir, M. Sajid, M. Tanveer,
- Abstract要約: 制限されたカーネルマシン(RKM)は、機械学習の分野における一般化能力の向上に大きな影響を与えている。
RKMsの有効性は、データセット内の外れ値やその他の汚染形態の存在によって損なわれる可能性がある。
この重要な問題とモデルの堅牢性に対処するため、我々は新しい一級RKM(OCRKM)を提案する。
OCRKM の枠組みでは、可視変数と隠れ変数の両方を非確率的に統合する RBM と同様のエネルギー関数を用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Restricted kernel machines (RKMs) have demonstrated a significant impact in enhancing generalization ability in the field of machine learning. Recent studies have introduced various methods within the RKM framework, combining kernel functions with the least squares support vector machine (LSSVM) in a manner similar to the energy function of restricted boltzmann machines (RBM), such that a better performance can be achieved. However, RKM's efficacy can be compromised by the presence of outliers and other forms of contamination within the dataset. These anomalies can skew the learning process, leading to less accurate and reliable outcomes. To address this critical issue and to ensure the robustness of the model, we propose the novel one-class RKM (OCRKM). In the framework of OCRKM, we employ an energy function akin to that of the RBM, which integrates both visible and hidden variables in a nonprobabilistic setting. The formulation of the proposed OCRKM facilitates the seamless integration of one-class classification method with the RKM, enhancing its capability to detect outliers and anomalies effectively. The proposed OCRKM model is evaluated over UCI benchmark datasets. Experimental findings and statistical analyses consistently emphasize the superior generalization capabilities of the proposed OCRKM model over baseline models across all scenarios.
- Abstract(参考訳): 制限されたカーネルマシン(RKM)は、機械学習の分野における一般化能力の向上に大きな影響を与えている。
近年の研究では、制限ボルツマンマシン(RBM)のエネルギー関数と同様の方法で、カーネル関数と最小二乗支援ベクトルマシン(LSSVM)を組み合わせることにより、より優れた性能を実現するRKMフレームワークに様々な手法を導入している。
しかしながら、RKMの有効性は、データセット内の外れ値やその他の汚染形態の存在によって損なわれる可能性がある。
これらの異常は学習プロセスを歪め、正確で信頼性の低い結果をもたらす。
この重要な問題に対処し、モデルの堅牢性を確保するため、我々は新しい一級RKM(OCRKM)を提案する。
OCRKM の枠組みでは、可視変数と隠れ変数の両方を非確率的に統合する RBM と同様のエネルギー関数を用いる。
提案するOCRKMの定式化により,一級分類法とRKMのシームレスな統合が容易となり,外乱や異常を効果的に検出する能力が向上する。
提案するOCRKMモデルは、UCIベンチマークデータセット上で評価される。
実験結果と統計的解析は,全シナリオにわたるベースラインモデルよりも,提案したOCRKMモデルの優れた一般化能力を一貫して強調している。
関連論文リスト
- CI-RKM: A Class-Informed Approach to Robust Restricted Kernel Machines [0.0]
制限されたカーネルマシン(RKM)はカーネルマシンファミリー内の汎用的で強力なフレームワークである。
本稿では,クラスインフォームド重み付き関数を統合することにより,RKMフレームワークの新たな拡張を提案する。
提案手法は,カーネルベースの学習モデルの開発において,大きな進歩をもたらす。
論文 参考訳(メタデータ) (2025-04-12T11:12:30Z) - Reinforced Model Merging [53.84354455400038]
本稿では,タスク統合に適した環境とエージェントを含むRMM(Reinforced Model Merging)という,革新的なフレームワークを提案する。
評価プロセス中にデータサブセットを利用することで、報酬フィードバックフェーズのボトルネックに対処し、RMMを最大100倍高速化する。
論文 参考訳(メタデータ) (2025-03-27T08:52:41Z) - Theoretical Insights in Model Inversion Robustness and Conditional Entropy Maximization for Collaborative Inference Systems [89.35169042718739]
協調推論により、クラウドサーバに機密データを公開することなく、エンドユーザは強力なディープラーニングモデルを活用することができる。
近年の研究では、これらの中間機能は、情報が漏洩し、生データをモデル反転攻撃(MIA)によって再構築できるため、プライバシーを十分に保持できないことが判明している。
この研究はまず、与えられた中間特徴の入力の条件エントロピーが、任意のMIAの下での再構成平均二乗誤差(MSE)の保証された下界を与えることを理論的に証明する。
そして、ガウス混合推定に基づいて、この条件付きエントロピーを有界化するための微分可能かつ可解な尺度を導出し、逆ロバスト性を高める条件付きエントロピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2025-03-01T07:15:21Z) - TRKM: Twin Restricted Kernel Machines for Classification and Regression [0.0]
TRKMは、ツインモデルの利点とRKMフレームワークの堅牢性を組み合わせて、分類と回帰タスクを強化する。
脳年齢データセットにTRKMモデルを実装し,脳年齢予測の有効性を実証した。
論文 参考訳(メタデータ) (2025-02-13T05:13:46Z) - Hybrid machine learning based scale bridging framework for permeability prediction of fibrous structures [0.0]
本研究では,繊維状繊維構造の透水性を予測するための,ハイブリッド機械学習に基づくスケールブリジングフレームワークを提案する。
SSM(Single Scale Method)、SUM(Simple Upscaling Method)、SBM(Scale-Bridging Method)、FRM(Fully Resolved Model)の4つの手法が評価された。
論文 参考訳(メタデータ) (2025-02-07T16:09:25Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - ClusterDDPM: An EM clustering framework with Denoising Diffusion
Probabilistic Models [9.91610928326645]
拡散確率モデル(DDPM)は、新しい、そして有望な生成モデルのクラスを表す。
本研究では,DDPMを用いたクラスタリングのための革新的予測最大化(EM)フレームワークを提案する。
Mステップでは、条件付きDDPMを用いてクラスタリングに親しみやすい潜在表現を学習し、潜在表現の分布をガウスの先行表現の混合と整合させることに重点を置いている。
論文 参考訳(メタデータ) (2023-12-13T10:04:06Z) - Ensemble Kalman Filtering Meets Gaussian Process SSM for Non-Mean-Field and Online Inference [47.460898983429374]
我々は,非平均場(NMF)変動推定フレームワークにアンサンブルカルマンフィルタ(EnKF)を導入し,潜在状態の後方分布を近似する。
EnKFとGPSSMのこの新しい結婚は、変分分布の学習における広範なパラメータ化の必要性をなくすだけでなく、エビデンスの下限(ELBO)の解釈可能でクローズドな近似を可能にする。
得られたEnKF支援オンラインアルゴリズムは、データ適合精度を確保しつつ、モデル正規化を組み込んで過度適合を緩和し、目的関数を具現化する。
論文 参考訳(メタデータ) (2023-12-10T15:22:30Z) - f-FERM: A Scalable Framework for Robust Fair Empirical Risk Minimization [9.591164070876689]
本稿では、f-divergence measures(f-FERM)に基づく公正な経験的リスクに対する統一的な最適化フレームワークを提案する。
さらに,f-FERMによるほぼ全てのバッチサイズに対するフェアネス・精度トレードオフの優位性を実証した。
我々の拡張は、不確実集合として$L_p$ノルムの下で f-FERM の目的を分布的に頑健に最適化する手法に基づいている。
論文 参考訳(メタデータ) (2023-12-06T03:14:16Z) - Bayesian learning of feature spaces for multitasks problems [0.11538034264098687]
本稿では,Kernel Machines (KMs) とExtreme Learning Machines (ELMs) を接続するマルチタスク回帰手法を提案する。
提案されたモデルは RFF-BLR と呼ばれ、2つの主要な設計目標に同時に対処するベイジアンフレームワークに基づいている。
実験結果から, このフレームワークは非線形回帰における最先端手法と比較して, 大幅な性能向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-09-07T09:53:53Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Continual Learning with Fully Probabilistic Models [70.3497683558609]
機械学習の完全確率的(または生成的)モデルに基づく継続的学習のアプローチを提案する。
生成器と分類器の両方に対してガウス混合モデル(GMM)インスタンスを用いた擬似リハーサル手法を提案する。
我々は,GMRが,クラス増分学習問題に対して,非常に競合的な時間とメモリの複雑さで,最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-04-19T12:26:26Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - Robust Generative Restricted Kernel Machines using Weighted Conjugate
Feature Duality [11.68800227521015]
制限カーネルマシン(RKM)のフレームワークにおける重み付き共役特徴双対性を導入する。
RKMの定式化により、古典的なロバスト統計からメソッドを簡単に統合できる。
実験により、トレーニングデータに汚染が存在する場合、重み付けされたRKMはクリーンな画像を生成することができることが示された。
論文 参考訳(メタデータ) (2020-02-04T09:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。