論文の概要: Iterative Sketching for Secure Coded Regression
- arxiv url: http://arxiv.org/abs/2308.04185v2
- Date: Sun, 31 Mar 2024 05:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-02 15:44:31.041288
- Title: Iterative Sketching for Secure Coded Regression
- Title(参考訳): セキュアコード回帰のための反復スケッチ
- Authors: Neophytos Charalambides, Hessam Mahdavifar, Mert Pilanci, Alfred O. Hero III,
- Abstract要約: 分散線形回帰を高速化する手法を提案する。
具体的には、方程式の系の基礎をランダムに回転させ、次にサブサンプルブロックを回転させ、情報を同時に確保し、回帰問題の次元を小さくする。
- 参考スコア(独自算出の注目度): 66.53950020718021
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Linear regression is a fundamental and primitive problem in supervised machine learning, with applications ranging from epidemiology to finance. In this work, we propose methods for speeding up distributed linear regression. We do so by leveraging randomized techniques, while also ensuring security and straggler resiliency in asynchronous distributed computing systems. Specifically, we randomly rotate the basis of the system of equations and then subsample blocks, to simultaneously secure the information and reduce the dimension of the regression problem. In our setup, the basis rotation corresponds to an encoded encryption in an approximate gradient coding scheme, and the subsampling corresponds to the responses of the non-straggling servers in the centralized coded computing framework. This results in a distributive iterative stochastic approach for matrix compression and steepest descent.
- Abstract(参考訳): 線形回帰は、疫学からファイナンスに至るまで、教師あり機械学習の基本的な、原始的な問題である。
本研究では,分散線形回帰を高速化する手法を提案する。
ランダム化技術を活用しながら、非同期分散コンピューティングシステムにおけるセキュリティとストラグラーレジリエンスを確保する。
具体的には、方程式の系の基礎をランダムに回転させ、次にサブサンプルブロックを回転させ、情報を同時に確保し、回帰問題の次元を小さくする。
我々の設定では、ベースローテーションは近似勾配符号化方式で符号化された暗号化に対応し、サブサンプリングは集中型符号化計算フレームワークにおける非ストラグリングサーバの応答に対応する。
これにより、行列圧縮と最も急降下に対する分配的反復確率的アプローチが導かれる。
関連論文リスト
- Gradient Coding with Iterative Block Leverage Score Sampling [42.21200677508463]
変換したデータのサンプリングサブセットに対応するために,$ell$-subspace埋め込みのためのレバレッジスコアサンプリングスケッチを一般化する。
これを用いて、一階法に対する近似符号付き計算手法を導出する。
論文 参考訳(メタデータ) (2023-08-06T12:22:12Z) - A Linearly Convergent GAN Inversion-based Algorithm for Reverse
Engineering of Deceptions [1.2891210250935146]
本稿では, クリーンデータがGANの範囲内にあると仮定する, 偽装のリバースエンジニアリングのための新しい枠組みを提案する。
論文の中で初めて、この問題に対して決定論的線形収束を保証する。
論文 参考訳(メタデータ) (2023-06-07T20:08:27Z) - Dealing with Collinearity in Large-Scale Linear System Identification
Using Gaussian Regression [3.04585143845864]
複数の相互接続型動的システムからなるネットワークの推定について検討する。
我々は、任意のインパルス応答をゼロ平均ガウス過程の実現と見なすベイズ正規化フレームワークにキャストされた戦略を開発する。
我々はマルコフ連鎖モンテカルロスキームを設計し、コリナリティを効率的に扱うことでインパルス応答を後方に再構築する。
論文 参考訳(メタデータ) (2023-02-21T19:35:47Z) - Federated Sufficient Dimension Reduction Through High-Dimensional Sparse
Sliced Inverse Regression [4.561305216067566]
フェデレーション学習は、ビッグデータ時代において、近年人気の高いツールとなっている。
本稿では,初めてフェデレートされたスパースススライス逆回帰アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-23T15:53:06Z) - Covariance-Free Sparse Bayesian Learning [62.24008859844098]
共分散行列の明示的な反転を回避する新しいSBL推論アルゴリズムを導入する。
私たちの手法は、既存のベースラインよりも数千倍も高速です。
我々は,SBLが高次元信号回復問題に難なく対処できる新しいアルゴリズムについて紹介する。
論文 参考訳(メタデータ) (2021-05-21T16:20:07Z) - Solving weakly supervised regression problem using low-rank manifold
regularization [77.34726150561087]
我々は弱い教師付き回帰問題を解く。
weakly"の下では、いくつかのトレーニングポイントではラベルが知られ、未知のものもあれば、無作為なノイズの存在やリソースの欠如などの理由によって不確かであることが分かっています。
数値的な節ではモンテカルロモデルを用いて提案手法を人工と実のデータセットに適用した。
論文 参考訳(メタデータ) (2021-04-13T23:21:01Z) - A Compressive Sensing Approach for Federated Learning over Massive MIMO
Communication Systems [82.2513703281725]
フェデレートラーニング(Federated Learning)は、無線デバイスとのコラボレーションによって、中央サーバでグローバルモデルをトレーニングするための、プライバシ保護のアプローチである。
本稿では,大規模マルチインプット多出力通信システム上でのフェデレーション学習のための圧縮センシング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T05:56:27Z) - Distributed Sketching Methods for Privacy Preserving Regression [54.51566432934556]
ランダム化されたスケッチを利用して、問題の次元を減らし、プライバシを保ち、非同期分散システムにおけるストラグラーレジリエンスを改善します。
従来のスケッチ手法に対する新しい近似保証を導出し、分散スケッチにおけるパラメータ平均化の精度を解析する。
大規模実験によるサーバレスコンピューティングプラットフォームにおける分散スケッチのパフォーマンスについて説明する。
論文 参考訳(メタデータ) (2020-02-16T08:35:48Z) - Accelerating Feedforward Computation via Parallel Nonlinear Equation
Solving [106.63673243937492]
ニューラルネットワークの評価や自己回帰モデルからのサンプリングなどのフィードフォワード計算は、機械学習においてユビキタスである。
本稿では,非線形方程式の解法としてフィードフォワード計算の課題を定式化し,ジャコビ・ガウス・シーデル固定点法とハイブリッド法を用いて解を求める。
提案手法は, 並列化可能な繰り返し回数の削減(あるいは等値化)により, 元のフィードフォワード計算と全く同じ値が与えられることを保証し, 十分な並列化計算能力を付与する。
論文 参考訳(メタデータ) (2020-02-10T10:11:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。