論文の概要: Differentially Private Geodesic and Linear Regression
- arxiv url: http://arxiv.org/abs/2504.11304v1
- Date: Tue, 15 Apr 2025 15:45:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:11:48.666744
- Title: Differentially Private Geodesic and Linear Regression
- Title(参考訳): 異なる私的測地線と線形回帰
- Authors: Aditya Kulkarni, Carlos Soto,
- Abstract要約: 統計応用では、多様体のような非線型空間上に存在するデータ構造に遭遇することがますます一般的になっている。
我々はK-Norm Gradient (KNG) 機構を介して測地回帰の微分プライベート(DP)パラメーターをリリースすることを検討する。
- 参考スコア(独自算出の注目度): 1.4656078321003652
- License:
- Abstract: In statistical applications it has become increasingly common to encounter data structures that live on non-linear spaces such as manifolds. Classical linear regression, one of the most fundamental methodologies of statistical learning, captures the relationship between an independent variable and a response variable which both are assumed to live in Euclidean space. Thus, geodesic regression emerged as an extension where the response variable lives on a Riemannian manifold. The parameters of geodesic regression, as with linear regression, capture the relationship of sensitive data and hence one should consider the privacy protection practices of said parameters. We consider releasing Differentially Private (DP) parameters of geodesic regression via the K-Norm Gradient (KNG) mechanism for Riemannian manifolds. We derive theoretical bounds for the sensitivity of the parameters showing they are tied to their respective Jacobi fields and hence the curvature of the space. This corroborates recent findings of differential privacy for the Fr\'echet mean. We demonstrate the efficacy of our methodology on the sphere, $\mbS^2\subset\mbR^3$ and, since it is general to Riemannian manifolds, the manifold of Euclidean space which simplifies geodesic regression to a case of linear regression. Our methodology is general to any Riemannian manifold and thus it is suitable for data in domains such as medical imaging and computer vision.
- Abstract(参考訳): 統計応用においては、多様体のような非線型空間上に存在するデータ構造に遭遇することがますます一般的になっている。
古典線形回帰は統計学習の最も基本的な方法論の1つであり、独立変数と応答変数の関係を捉え、どちらもユークリッド空間に存在すると仮定される。
このように、測地回帰は、応答変数がリーマン多様体上に存在する拡張として現れる。
測地的回帰のパラメータは、線形回帰と同様に、センシティブなデータの関係を捉え、従って、そのパラメータのプライバシー保護のプラクティスを考慮すべきである。
我々は、リーマン多様体のK-ノルム勾配(KNG)機構を介して測地回帰の微分プライベート(DP)パラメータを解放することを検討する。
我々は、パラメータの感度がそれぞれのヤコビ体と結びついていることを示し、したがって空間の曲率について理論的境界を導出する。
これはFr'echet平均の差分プライバシーの最近の発見を裏付けるものである。
球面上での我々の方法論の有効性、$\mbS^2\subset\mbR^3$ を示し、これはリーマン多様体に一般化されるので、線型回帰の場合への測地的回帰を単純化するユークリッド空間の多様体である。
我々の方法論は任意のリーマン多様体に一般化されており、医用画像やコンピュータビジョンなどの領域のデータに適している。
関連論文リスト
- Intrinsic Gaussian Process Regression Modeling for Manifold-valued Response Variable [6.137918306133745]
本稿では,多様体値データに対する固有ガウス過程回帰モデルを提案する。
我々は,情報整合性や後続整合性を含む提案モデルの特性を確立する。
シミュレーションや実例を含む数値的な研究は,提案手法が有効であることを示唆している。
論文 参考訳(メタデータ) (2024-11-28T08:27:59Z) - RMLR: Extending Multinomial Logistic Regression into General Geometries [64.16104856124029]
我々のフレームワークは、最小限の幾何学的性質しか必要とせず、広い適用性を示す。
SPD MLRの5つのファミリーを5種類のパワー変形測定値に基づいて開発する。
回転行列上では、人気のある双不変計量に基づいてリー MLR を提案する。
論文 参考訳(メタデータ) (2024-09-28T18:38:21Z) - Deep Fréchet Regression [4.915744683251151]
パラメトリックな仮定を課さずに高次元予測器を扱えるフレキシブル回帰モデルを提案する。
提案手法は,非ユークリッド応答に対する既存手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-31T07:54:14Z) - Conformal inference for regression on Riemannian Manifolds [49.7719149179179]
回帰シナリオの予測セットは、応答変数が$Y$で、多様体に存在し、Xで表される共変数がユークリッド空間にあるときに検討する。
我々は、多様体上のこれらの領域の経験的バージョンが、その集団に対するほぼ確実に収束していることを証明する。
論文 参考訳(メタデータ) (2023-10-12T10:56:25Z) - Linear Regression on Manifold Structured Data: the Impact of Extrinsic
Geometry on Solutions [4.8234611688915665]
多様体上に構築されたデータに適用した線形回帰について検討する。
回帰解の特異性に対する多様体の曲率の影響を解析する。
論文 参考訳(メタデータ) (2023-07-05T17:51:26Z) - Curvature-Independent Last-Iterate Convergence for Games on Riemannian
Manifolds [77.4346324549323]
本研究では, 多様体の曲率に依存しないステップサイズが, 曲率非依存かつ直線的最終点収束率を達成することを示す。
我々の知る限りでは、曲率非依存率や/または最終点収束の可能性はこれまでに検討されていない。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Bayesian Quadrature on Riemannian Data Manifolds [79.71142807798284]
データに固有の非線形幾何学構造をモデル化する原則的な方法が提供される。
しかし、これらの演算は通常計算的に要求される。
特に、正規法則上の積分を数値計算するためにベイズ二次(bq)に焦点を当てる。
先行知識と活発な探索手法を両立させることで,BQは必要な評価回数を大幅に削減できることを示す。
論文 参考訳(メタデータ) (2021-02-12T17:38:04Z) - Robust Geodesic Regression [6.827783641211451]
我々は、ロバストな測地回帰を行うために、$L_1$, Huber および Tukey biweight 推定器を含むM型推定器を使用する。
実際のニューロイメージングデータの解析を含む数値的な例の結果は、提案手法の有望な経験的性質を実証している。
論文 参考訳(メタデータ) (2020-07-09T02:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。