論文の概要: Compressive analysis and the Future of Privacy
- arxiv url: http://arxiv.org/abs/2006.03835v1
- Date: Sat, 6 Jun 2020 10:33:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-16 11:24:31.127434
- Title: Compressive analysis and the Future of Privacy
- Title(参考訳): 圧縮分析とプライバシーの将来
- Authors: Suyash Shandilya
- Abstract要約: これにはデータ圧縮、データエンコーディング、データ暗号化、ハッシュが含まれる。
本稿では、カスタマイズ可能な個人のプライバシーを実現するための技術の可能性について分析する。
私たちは、プライバシー保護フレームワークとポリシーを確立するための大胆なニーズと、直感的なデジタルサービスアンサンブルの快適さとプライバシとのトレードオフを個人がどうやって達成できるかを列挙します。
- 参考スコア(独自算出の注目度): 0.5857406612420462
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compressive analysis is the name given to the family of techniques that map
raw data to their smaller representation. Largely, this includes data
compression, data encoding, data encryption, and hashing. In this paper, we
analyse the prospects of such technologies in realising customisable individual
privacy. We enlist the dire needs to establish privacy preserving frameworks
and policies and how can individuals achieve a trade-off between the comfort of
an intuitive digital service ensemble and their privacy. We examine the current
technologies being implemented, and suggest the crucial advantages of
compressive analysis.
- Abstract(参考訳): 圧縮解析(Compressive analysis)とは、生データをより小さな表現にマッピングするテクニックのファミリーの名前である。
これには、データ圧縮、データエンコーディング、データ暗号化、ハッシュが含まれる。
本稿では,カスタマイズ可能な個人のプライバシを実現するための技術の可能性について分析する。
私たちは、プライバシー保護の枠組みとポリシーを確立することの必要性と、直観的なデジタルサービスアンサンブルの快適さとプライバシのトレードオフを個人がどうやって達成できるかを問う。
現在実装されている技術について検討し、圧縮解析の重要な利点を示唆する。
関連論文リスト
- A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - UN Handbook on Privacy-Preserving Computation Techniques [14.63213847614646]
本稿では,機密データの統計的解析におけるプライバシー保護手法について述べる。
この文書の情報は、統計学者、データサイエンティスト、データキュレーター、アーキテクト、ITスペシャリスト、およびセキュリティおよび情報保証スペシャリストによって使用されることを意図している。
論文 参考訳(メタデータ) (2023-01-15T19:43:40Z) - PrivacyProber: Assessment and Detection of Soft-Biometric
Privacy-Enhancing Techniques [1.790445868185437]
そこで本研究では, バイオメトリック・プライバシ・エンハンシング技術を用いて, 回復の試みの信頼性について検討する。
プライバシ強化顔画像からソフトバイオメトリック情報を復元するための高レベルフレームワークであるPrivacyProberを提案する。
論文 参考訳(メタデータ) (2022-11-16T12:20:18Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - Privacy-preserving Graph Analytics: Secure Generation and Federated
Learning [72.90158604032194]
我々は、リッチな属性と関係を表現する重要な能力を提供するグラフデータのプライバシー保護分析に焦点を当てる。
本稿では,プライバシ保護グラフ生成とフェデレーショングラフ学習という2つの方向性について論じる。
論文 参考訳(メタデータ) (2022-06-30T18:26:57Z) - Privacy-Aware Compression for Federated Data Analysis [31.970815289473965]
フェデレーションデータ分析(Federated Data Analytics)は、サーバが低帯域のユーザデバイス群からノイズの多い応答をコンパイルし、集計統計を推定する分散データ分析フレームワークである。
このフレームワークの2つの大きな課題は、ユーザデータがしばしばセンシティブであり、ユーザデバイスがネットワーク帯域幅が低いため、圧縮である。
我々は、この問題を概観し、特定の通信予算で機能するプライバシーに配慮した圧縮メカニズムのファミリーを設計する。
論文 参考訳(メタデータ) (2022-03-15T17:57:13Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。