論文の概要: Invariant Feature Extraction Through Conditional Independence and the Optimal Transport Barycenter Problem: the Gaussian case
- arxiv url: http://arxiv.org/abs/2512.20914v1
- Date: Wed, 24 Dec 2025 03:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.66574
- Title: Invariant Feature Extraction Through Conditional Independence and the Optimal Transport Barycenter Problem: the Gaussian case
- Title(参考訳): 条件付き独立と最適輸送バリアセンター問題による不変特徴抽出--ガウスの場合
- Authors: Ian Bounos, Pablo Groisman, Mariela Sued, Esteban Tabak,
- Abstract要約: メソッドは$d$不変の$W=f(X)$を抽出するために開発され、変数$Z$によって構築されることなく応答変数$Y$を予測する。
主な要素は、$W$と$Z$の間の統計的依存を、$Y$で条件付きで罰することである。
この手順はより一般的な非ガウス/非線型ケースにほとんど変化しない。
- 参考スコア(独自算出の注目度): 0.4899818550820576
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A methodology is developed to extract $d$ invariant features $W=f(X)$ that predict a response variable $Y$ without being confounded by variables $Z$ that may influence both $X$ and $Y$. The methodology's main ingredient is the penalization of any statistical dependence between $W$ and $Z$ conditioned on $Y$, replaced by the more readily implementable plain independence between $W$ and the random variable $Z_Y = T(Z,Y)$ that solves the [Monge] Optimal Transport Barycenter Problem for $Z\mid Y$. In the Gaussian case considered in this article, the two statements are equivalent. When the true confounders $Z$ are unknown, other measurable contextual variables $S$ can be used as surrogates, a replacement that involves no relaxation in the Gaussian case if the covariance matrix $Σ_{ZS}$ has full range. The resulting linear feature extractor adopts a closed form in terms of the first $d$ eigenvectors of a known matrix. The procedure extends with little change to more general, non-Gaussian / non-linear cases.
- Abstract(参考訳): メソッドは$d$不変機能$W=f(X)$を抽出するために開発され、$X$と$Y$の両方に影響を与える可能性のある変数$Z$によって構築されることなく、応答変数$Y$を予測する。
この方法論の主な要素は、$W$ と $Z$ の統計的依存を$Y$ で条件付けし、より容易に実装可能な、$W$ と確率変数 $Z_Y = T(Z,Y)$ に置き換えることで、[Monge] Optimal Transport Barycenter Problem for $Z\mid Y$ を解くことである。
この論文で考慮されたガウスのケースでは、2つの文は同値である。
真の共同設立者$Z$が未知の場合、他の測定可能な文脈変数$S$は、共分散行列$Σ_{ZS}$が全範囲を持つ場合、ガウスの場合の緩和を伴わない置換であるサロゲートとして使うことができる。
結果として得られる線型特徴抽出器は、既知の行列の最初の$d$固有ベクトルの観点から閉形式を採用する。
この手順はより一般的な非ガウス/非線型ケースにほとんど変化しない。
関連論文リスト
- A computational transition for detecting multivariate shuffled linear regression by low-degree polynomials [0.0]
モデル $Y=tfrac1sqrt1+sigma2(Pi_* X Q_* + sigma Z) について検討する。
このモデルを$X$と$Y$の場合と区別する仮説テスト問題を考える。
その結果、この問題に対する低次アルゴリズムの有効性の円滑な遷移が確立された。
論文 参考訳(メタデータ) (2025-04-04T00:32:38Z) - Revisiting Step-Size Assumptions in Stochastic Approximation [1.3654846342364308]
この仮定は、収束とより微細な結果には必要ないことが初めて示される。
標準アルゴリズムおよびPolyakとRuppertの平均化手法を用いて得られた推定値に対して収束率を求める。
数値実験の結果,乗法雑音とマルコフ記憶の組み合わせにより,$beta_theta$が大きくなる可能性が示唆された。
論文 参考訳(メタデータ) (2024-05-28T05:11:05Z) - Near-Optimal Mean Estimation with Unknown, Heteroskedastic Variances [15.990720051907864]
Subset-of-Signalsモデルはヘテロスケダティック平均推定のベンチマークとして機能する。
我々のアルゴリズムは、このオープンな問題を対数的要因に分解する。
たとえ$d=2$であっても、我々の手法は各サンプルのばらつきを知るのに匹敵するレートを可能にします。
論文 参考訳(メタデータ) (2023-12-05T01:13:10Z) - $L^1$ Estimation: On the Optimality of Linear Estimators [64.76492306585168]
この研究は、条件中央値の線型性を誘導する$X$上の唯一の先行分布がガウス分布であることを示している。
特に、条件分布 $P_X|Y=y$ がすべての$y$に対して対称であるなら、$X$ はガウス分布に従う必要がある。
論文 参考訳(メタデータ) (2023-09-17T01:45:13Z) - Random matrices in service of ML footprint: ternary random features with
no performance loss [55.30329197651178]
我々は、$bf K$ の固有スペクトルが$bf w$ の i.d. 成分の分布とは独立であることを示す。
3次ランダム特徴(TRF)と呼ばれる新しいランダム手法を提案する。
提案したランダムな特徴の計算には乗算が不要であり、古典的なランダムな特徴に比べてストレージに$b$のコストがかかる。
論文 参考訳(メタデータ) (2021-10-05T09:33:49Z) - Spectral properties of sample covariance matrices arising from random
matrices with independent non identically distributed columns [50.053491972003656]
関数 $texttr(AR(z))$, for $R(z) = (frac1nXXT- zI_p)-1$ and $Ain mathcal M_p$ deterministic, have a standard deviation of order $O(|A|_* / sqrt n)$.
ここでは、$|mathbb E[R(z)] - tilde R(z)|_F を示す。
論文 参考訳(メタデータ) (2021-09-06T14:21:43Z) - Learning the optimal regularizer for inverse problems [1.763934678295407]
線形逆問題 $y=Ax+epsilon$ を考えると、$Acolon Xto Y$ は分離可能なヒルベルト空間 $X$ と $Y$ の間の既知の線型作用素である。
この設定は、デノイング、デブロアリング、X線トモグラフィーなど、画像のいくつかの逆問題を含んでいる。
古典的な正規化の枠組みの中では、正規化関数が優先順位を与えられず、データから学習される場合に焦点を当てる。
論文 参考訳(メタデータ) (2021-06-11T17:14:27Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z) - Sample Amplification: Increasing Dataset Size even when Learning is Impossible [15.864702679819544]
未知のディストリビューションから引き出されたデータである$D$が、このデータセットを増幅し、さらに大きなサンプルセットを$D$から抽出したように見えるように出力することは、どの程度まで可能か?
この問題は次のように定式化する: $left(n, n + Theta(fracnsqrtk)right)$アンプが存在するが、小さな定数全変動距離への分布を学習するには$Theta(d)$サンプルが必要である。
論文 参考訳(メタデータ) (2019-04-26T21:42:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。