論文の概要: ARA : Aggregated RAPPOR and Analysis for Centralized Differential
Privacy
- arxiv url: http://arxiv.org/abs/2001.01618v1
- Date: Mon, 6 Jan 2020 15:03:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-14 02:20:33.770375
- Title: ARA : Aggregated RAPPOR and Analysis for Centralized Differential
Privacy
- Title(参考訳): ARA : Aggregated RAPPorと集中型微分プライバシーの分析
- Authors: Sudipta Paul and Subhankar Mishra
- Abstract要約: 我々は、局所的なアプローチであるアートスタンダードRAPPORの状態を検証し、このギャップを支持した。
我々のモデルは、毎回主要な真理値を分析した。
- 参考スコア(独自算出の注目度): 4.274344851970292
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy(DP) has now become a standard in case of sensitive
statistical data analysis. The two main approaches in DP is local and central.
Both the approaches have a clear gap in terms of data storing,amount of data to
be analyzed, analysis, speed etc. Local wins on the speed. We have tested the
state of the art standard RAPPOR which is a local approach and supported this
gap. Our work completely focuses on that part too. Here, we propose a model
which initially collects RAPPOR reports from multiple clients which are then
pushed to a Tf-Idf estimation model. The Tf-Idf estimation model then estimates
the reports on the basis of the occurrence of "on bit" in a particular position
and its contribution to that position. Thus it generates a centralized
differential privacy analysis from multiple clients. Our model successfully and
efficiently analyzed the major truth value every time.
- Abstract(参考訳): ディファレンシャルプライバシ(dp)は、センシティブな統計データ分析を行う場合の標準となっている。
DPの2つの主要なアプローチは、ローカルとセントラルである。
どちらのアプローチも、データの保存、分析するデータの量、分析、速度といった面で明確なギャップがあります。
ローカルはスピードで勝ちます。
我々は、局所的なアプローチであるアートスタンダードRAPPORの状態を検証し、このギャップを支持した。
私たちの仕事は、その部分にも完全に焦点を当てています。
本稿では、まず複数のクライアントからRAPPORレポートを収集し、Tf-Idf推定モデルにプッシュするモデルを提案する。
Tf-Idf推定モデルは、特定の位置における「オンビット」の発生とその位置への寄与に基づいて、レポートを推定する。
したがって、複数のクライアントから集中型差分プライバシー分析を生成する。
我々のモデルは、毎回主要な真理値を分析した。
関連論文リスト
- Federated Causal Discovery from Heterogeneous Data [70.31070224690399]
任意の因果モデルと異種データに対応する新しいFCD法を提案する。
これらのアプローチには、データのプライバシを保護するために、生データのプロキシとして要約統計を構築することが含まれる。
提案手法の有効性を示すために, 合成および実データを用いた広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-02-20T18:53:53Z) - Bayesian Federated Inference for regression models with heterogeneous
multi-center populations [0.0]
回帰モデルでは、サンプルサイズは予測器の数に対して十分な大きさでなければならない。
異なる(医療)センターで収集された異なるデータセットからデータをポーリングすることはこの問題を軽減するが、プライバシー規制やロジスティックな問題のためにしばしば実現不可能である。
別の方法は、センター内のローカルデータを別々に分析し、統計的推測結果とベイズ連邦推論(BFI)手法を組み合わせることである。
このアプローチの目的は、組み合わせたデータに対して統計的解析を行った場合、何を発見したのかを、別々の中心における推論結果から計算することである。
論文 参考訳(メタデータ) (2024-02-05T11:10:27Z) - Think Twice Before Selection: Federated Evidential Active Learning for
Medical Image Analysis with Domain Shifts [33.27967397851525]
本稿では,多様なドメインから派生したローカルデータの情報性を評価するための最初の試みを行う。
本稿では,ドメインシフト下でのデータ評価を校正する新しい手法であるFederated Evidential Active Learning(FEAL)を提案する。
論文 参考訳(メタデータ) (2023-12-05T08:32:27Z) - Gradients Look Alike: Sensitivity is Often Overestimated in DP-SGD [47.32397802662984]
DP-SGDのリークは、一般的なベンチマークでトレーニングした場合、多くのデータポイントのプライバシが大幅に低下することを示す。
これは、敵がトレーニングデータセットを十分にコントロールしていない場合、プライバシ攻撃が多くのデータポイントに対して必ず失敗することを意味する。
論文 参考訳(メタデータ) (2023-07-01T11:51:56Z) - Domain-Specific Risk Minimization for Out-of-Distribution Generalization [104.17683265084757]
まず、適応性ギャップを明示的に考慮した一般化境界を確立する。
本稿では,目標に対するより良い仮説の選択を導くための効果的なギャップ推定法を提案する。
もう1つの方法は、オンラインターゲットサンプルを用いてモデルパラメータを適応させることにより、ギャップを最小化することである。
論文 参考訳(メタデータ) (2022-08-18T06:42:49Z) - Federated and Generalized Person Re-identification through Domain and
Feature Hallucinating [88.77196261300699]
人物再識別(re-ID)におけるフェデレーションドメイン一般化(FedDG)の問題について検討する。
一般化された局所的・グローバルなモデルを学ぶための多様な特徴を創出する手法として,DFH (Domain and Feature Hallucinating) を提案する。
提案手法は4つの大規模re-IDベンチマークにおいてFedDGの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-03-05T09:15:13Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Evaluating Model Robustness and Stability to Dataset Shift [7.369475193451259]
機械学習モデルの安定性を解析するためのフレームワークを提案する。
本手法では,アルゴリズムが性能の悪い分布を決定するために,元の評価データを用いる。
我々は,アルゴリズムの性能を"Worst-case"分布で推定する。
論文 参考訳(メタデータ) (2020-10-28T17:35:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。