論文の概要: A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting
- arxiv url: http://arxiv.org/abs/2004.09612v6
- Date: Sat, 10 Oct 2020 12:37:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-11 18:03:08.339303
- Title: A Critical Overview of Privacy-Preserving Approaches for Collaborative
Forecasting
- Title(参考訳): 協調予測のためのプライバシ保護アプローチの批判的概要
- Authors: Carla Gon\c{c}alves and Ricardo J. Bessa and Pierre Pinson
- Abstract要約: 異なるデータ所有者間の協力は、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題から、データ所有者はデータの共有を望まないかもしれない。
本稿では、現状を解析し、データプライバシを保証する既存の方法の欠点をいくつか明らかにする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cooperation between different data owners may lead to an improvement in
forecast quality - for instance by benefiting from spatial-temporal
dependencies in geographically distributed time series. Due to business
competitive factors and personal data protection questions, said data owners
might be unwilling to share their data, which increases the interest in
collaborative privacy-preserving forecasting. This paper analyses the
state-of-the-art and unveils several shortcomings of existing methods in
guaranteeing data privacy when employing Vector Autoregressive (VAR) models.
The paper also provides mathematical proofs and numerical analysis to evaluate
existing privacy-preserving methods, dividing them into three groups: data
transformation, secure multi-party computations, and decomposition methods. The
analysis shows that state-of-the-art techniques have limitations in preserving
data privacy, such as a trade-off between privacy and forecasting accuracy,
while the original data in iterative model fitting processes, in which
intermediate results are shared, can be inferred after some iterations.
- Abstract(参考訳): 異なるデータ所有者間の協力は、例えば地理的に分散した時系列における空間的時間的依存関係の恩恵によって、予測品質の改善につながる可能性がある。
ビジネス上の競争要因と個人データ保護の問題のため、データ所有者はデータを共有したくないかもしれない。
本稿では,現状を分析し,ベクトル自己回帰(var)モデルを用いたデータプライバシの保証における既存手法の欠点を明らかにした。
また,データ変換,セキュアなマルチパーティ計算,分解法という3つのグループに分け,既存のプライバシ保護手法を評価するための数学的証明や数値解析も提供する。
この分析によると、最先端技術は、プライバシと予測精度のトレードオフのようなデータプライバシの保存に制限がある一方で、中間結果を共有する反復モデルフィッティングプロセスにおける元のデータは、いくつかのイテレーション後に推測可能である。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Conditional Density Estimations from Privacy-Protected Data [0.0]
プライバシ保護されたデータセットからのシミュレーションに基づく推論手法を提案する。
本稿では,感染性疾患モデルと通常の線形回帰モデルに基づく個別時系列データについて述べる。
論文 参考訳(メタデータ) (2023-10-19T14:34:17Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Differentially Private Linear Regression with Linked Data [3.9325957466009203]
コンピュータ科学の数学的概念である差分プライバシーは、堅牢なプライバシー保証を提供する上昇するツールである。
最近の研究は、個々の統計および機械学習タスクの微分プライベートバージョンの開発に焦点を当てている。
相関データを用いた線形回帰のための2つの微分プライベートアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-01T21:00:19Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Collaborative causal inference on distributed data [7.293479909193382]
本研究では,データ協調実験(DC-QE)を提案し,対象と共変量の欠如を解消し,推定におけるランダムな誤りやバイアスを低減する。
提案手法では, 個人データから生成した中間表現を局所的データから構築し, プライバシ保存のためにプライベートデータの代わりに中間表現を共有し, 共有中間表現から適合度スコアを推定し, 最終的に, 適合度スコアから治療効果を推定する。
論文 参考訳(メタデータ) (2022-08-16T18:28:56Z) - Accuracy and Privacy Evaluations of Collaborative Data Analysis [4.987315310656657]
非モデル共有型フェデレーション学習として,次元性低減データ表現の共有による協調的データ分析が提案されている。
本稿では,本フレームワークの精度とプライバシ評価について分析する。
論文 参考訳(メタデータ) (2021-01-27T00:38:47Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - P3GM: Private High-Dimensional Data Release via Privacy Preserving
Phased Generative Model [23.91327154831855]
本稿では,プライバシ保護型位相生成モデル(P3GM)を提案する。
P3GMは2段階の学習プロセスを採用し、ノイズに対して堅牢にし、学習効率を向上させる。
最先端の手法と比較して、生成したサンプルはノイズが少なく、データ多様性の観点からも元のデータに近いように見える。
論文 参考訳(メタデータ) (2020-06-22T09:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。