論文の概要: Robust Non-Linear Correlations via Polynomial Regression
- arxiv url: http://arxiv.org/abs/2509.09380v1
- Date: Thu, 11 Sep 2025 11:55:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.367622
- Title: Robust Non-Linear Correlations via Polynomial Regression
- Title(参考訳): 多項式回帰によるロバスト非線形相関
- Authors: Luca Giuliani, Michele Lombardi,
- Abstract要約: ヒルシュフェルト・ゲベライン・レーニ相関係数はピアソンの相関の延長である。
損失正規化器としての使用を容易にするために,HGRを微分可能な方法で推定する新しいアルゴリズムが提案されている。
本稿では,ユーザ構成可能なカーネルに依存したHGRのための新しい計算手法を提案する。
- 参考スコア(独自算出の注目度): 9.137412599293794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Hirschfeld-Gebelein-R\'enyi (HGR) correlation coefficient is an extension of Pearson's correlation that is not limited to linear correlations, with potential applications in algorithmic fairness, scientific analysis, and causal discovery. Recently, novel algorithms to estimate HGR in a differentiable manner have been proposed to facilitate its use as a loss regularizer in constrained machine learning applications. However, the inherent uncomputability of HGR requires a bias-variance trade-off, which can possibly compromise the robustness of the proposed methods, hence raising technical concerns if applied in real-world scenarios. We introduce a novel computational approach for HGR that relies on user-configurable polynomial kernels, offering greater robustness compared to previous methods and featuring a faster yet almost equally effective restriction. Our approach provides significant advantages in terms of robustness and determinism, making it a more reliable option for real-world applications. Moreover, we present a brief experimental analysis to validate the applicability of our approach within a constrained machine learning framework, showing that its computation yields an insightful subgradient that can serve as a loss regularizer.
- Abstract(参考訳): Hirschfeld-Gebelein-R\'enyi (HGR) 相関係数は、線形相関に制限されないピアソンの相関の延長であり、アルゴリズム的公正性、科学的分析、因果発見の潜在的な応用である。
近年、制約付き機械学習アプリケーションにおいて損失正規化器としての使用を容易にするために、HGRを微分可能な方法で推定する新しいアルゴリズムが提案されている。
しかし、HGRの本質的に非計算性にはバイアス分散トレードオフが必要であり、提案手法の堅牢性を損なう可能性があるため、現実のシナリオに適用すれば技術的な懸念が生じる可能性がある。
ユーザ構成可能な多項式カーネルに頼り,従来の手法に比べて堅牢性が高く,より高速かつほぼ平等な制約を特徴とする,HGRの新しい計算手法を提案する。
われわれのアプローチは、堅牢性と決定性の観点から大きな利点をもたらし、現実世界のアプリケーションにとってより信頼性の高い選択肢となる。
さらに、制約された機械学習フレームワークにおける我々のアプローチの適用性を検証するための簡単な実験分析を行い、その計算が損失正則化として機能する洞察力に富んだ下位段階を生み出すことを示した。
関連論文リスト
- Policy Gradient for LQR with Domain Randomization [25.387541996071093]
ドメインランダム化(DR)は、シミュレーション環境の分布に基づいて、コントローラをトレーニングすることで、sim-to-real転送を可能にする。
ドメインランダム化線形二次規則(LQR)のためのポリシー勾配法(PG法)の第1収束解析を提供する。
我々は,サンプル平均値と集団レベルの目標値の差を小さくすることに伴う試料複雑度を定量化する。
論文 参考訳(メタデータ) (2025-03-31T17:51:00Z) - Uncertainty quantification for Markov chain induced martingales with application to temporal difference learning [55.197497603087065]
線形関数近似を用いた時間差分学習アルゴリズムの性能解析を行った。
マルコフ連鎖によって誘導されるベクトル値マルティンタに対する新規で一般的な高次元濃度不等式とベリー-エッセイン境界を確立する。
論文 参考訳(メタデータ) (2025-02-19T15:33:55Z) - RieszBoost: Gradient Boosting for Riesz Regression [49.737777802061984]
本稿では,Riesz表現子を直接推定するために,その明示的な解析形式を必要とせず,新たな勾配向上アルゴリズムを提案する。
提案アルゴリズムは,様々な関数を対象とした間接推定手法と同等以上の性能を示す。
論文 参考訳(メタデータ) (2025-01-08T23:04:32Z) - Leveraging viscous Hamilton-Jacobi PDEs for uncertainty quantification in scientific machine learning [1.8175282137722093]
科学機械学習(SciML)における不確実性(UQ)は、SciMLの強力な予測力と、学習したモデルの信頼性を定量化する方法を組み合わせる。
我々は、SciMLと粘性ハミルトン-ヤコビ偏微分方程式(HJ PDE)で生じるいくつかのベイズ推論問題の間の新しい理論的関係を確立することにより、UQ問題に対する新しい解釈を提供する。
我々はモデル予測を継続的に更新する際の計算上の利点を提供する新しいRacatiベースの方法論を開発した。
論文 参考訳(メタデータ) (2024-04-12T20:54:01Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z) - On Tilted Losses in Machine Learning: Theory and Applications [26.87656095874882]
指数傾き(英: Exponential tilting)は、統計学、確率、情報理論、最適化などの分野で一般的に用いられる技法である。
本研究では、指数傾斜を用いて個人損失の影響を柔軟に調整するEMMへの簡単な拡張について検討する。
フレームワークはEMMを一貫して上回り、最先端の、問題固有のアプローチと競合するパフォーマンスを提供できることが分かりました。
論文 参考訳(メタデータ) (2021-09-13T17:33:42Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Nonconvex sparse regularization for deep neural networks and its
optimality [1.9798034349981162]
ディープニューラルネットワーク(DNN)推定器は、回帰と分類問題に対して最適な収束率を得ることができる。
スパースDNNに対する新たなペナル化推定法を提案する。
スパースペンタライズされた推定器は、様々な非パラメトリック回帰問題に対する最小収束率を適応的に達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T07:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。