論文の概要: FakeSafe: Human Level Data Protection by Disinformation Mapping using
Cycle-consistent Adversarial Network
- arxiv url: http://arxiv.org/abs/2011.11278v2
- Date: Thu, 10 Dec 2020 04:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 02:12:46.909773
- Title: FakeSafe: Human Level Data Protection by Disinformation Mapping using
Cycle-consistent Adversarial Network
- Title(参考訳): FakeSafe: サイクル一貫性対向ネットワークを用いた情報マッピングによる人間レベルのデータ保護
- Authors: He Zhu and Dianbo Liu
- Abstract要約: 偽情報戦略はデータサイエンスに適応して 貴重な私的かつ機密的なデータを保護する
スマートフォンやウェアラブルなどのパーソナルデバイスから大量のプライベートデータが生成される。
セキュアなデータ転送とストレージインフラストラクチャを構築してプライバシを保存することは、ほとんどのケースでコストがかかります。
本研究では,サイクル整合性のある生成逆ネットワークを用いた人間レベルのデータ保護を実現するためのFakeSafeという手法を提案する。
- 参考スコア(独自算出の注目度): 4.987581730476023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The concept of disinformation is to use fake messages to confuse people in
order to protect the real information. This strategy can be adapted into data
science to protect valuable private and sensitive data. Huge amount of private
data are being generated from personal devices such as smart phone and wearable
in recent years. Being able to utilize these personal data will bring big
opportunities to design personalized products, conduct precision healthcare and
many other tasks that were impossible in the past. However, due to privacy,
safety and regulation reasons, it is often difficult to transfer or store data
in its original form while keeping them safe. Building a secure data transfer
and storage infrastructure to preserving privacy is costly in most cases and
there is always a concern of data security due to human errors. In this study,
we propose a method, named FakeSafe, to provide human level data protection
using generative adversarial network with cycle consistency and conducted
experiments using both benchmark and real world data sets to illustrate
potential applications of FakeSafe.
- Abstract(参考訳): 偽情報の概念は、偽のメッセージを使って人々を混乱させ、実際の情報を保護することである。
この戦略は、価値あるプライベートおよびセンシティブなデータを保護するために、データサイエンスに適応することができる。
近年、スマートフォンやウェアラブルなどのパーソナルデバイスから大量のプライベートデータが生成されるようになっている。
これらの個人データを利用できれば、パーソナライズされた製品の設計、精密医療、そして過去には不可能だった多くのタスクに大きなチャンスをもたらすだろう。
しかし、プライバシ、安全、規制上の理由から、元の形式でデータを転送したり、保存したりすることは、しばしば困難である。
プライバシを保護するためのセキュアなデータ転送とストレージインフラストラクチャの構築は、ほとんどの場合、コストがかかります。
本研究では,サイクル一貫性を有する生成的敵ネットワークを用いた人間レベルのデータ保護を実現するためのfakesafeという手法を提案し,ベンチマークと実世界のデータセットを用いてfakesafeの応用可能性を示す実験を行った。
関連論文リスト
- FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - AI-Driven Anonymization: Protecting Personal Data Privacy While
Leveraging Machine Learning [5.015409508372732]
本稿では、個人データのプライバシー保護と匿名化の促進を研究の中心的目的とする。
機械学習の差分プライバシー保護アルゴリズムを使用して、個人データのプライバシ保護と検出を実現する。
また、プライバシと個人データ保護に関連する機械学習の既存の課題に対処し、改善提案を提供し、データセットに影響を与える要因を分析して、タイムリーな個人データプライバシ検出と保護を可能にする。
論文 参考訳(メタデータ) (2024-02-27T04:12:25Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Privacy-Utility Trades in Crowdsourced Signal Map Obfuscation [20.58763760239068]
クラウドソースセルラー信号強度測定は、ネットワーク性能を改善するために信号マップを生成するために使用できる。
我々は、データがモバイルデバイスを離れる前に、そのようなデータを難読化することを検討する。
評価結果は,多種多様な実世界の信号マップデータセットに基づいて,適切なプライバシとユーティリティを同時に実現可能であることを示す。
論文 参考訳(メタデータ) (2022-01-13T03:46:22Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - BeeTrace: A Unified Platform for Secure Contact Tracing that Breaks Data
Silos [73.84437456144994]
接触追跡は、新型コロナウイルスなどの感染症の拡散を制御する重要な方法である。
現在のソリューションでは、ビジネスデータベースや個々のデジタルデバイスに格納された大量のデータを利用できません。
データサイロを破り、プライバシーの目標を保証するために最先端の暗号化プロトコルをデプロイする統合プラットフォームであるBeeTraceを提案する。
論文 参考訳(メタデータ) (2020-07-05T10:33:45Z) - Security and Privacy Preserving Deep Learning [2.322461721824713]
ディープラーニングに必要な膨大なデータ収集は、明らかにプライバシーの問題を提示している。
写真や音声録音などの、個人的かつ高感度なデータは、収集する企業によって無期限に保持される。
深層ニューラルネットワークは、トレーニングデータに関する情報を記憶するさまざまな推論攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2020-06-23T01:53:46Z) - A vision for global privacy bridges: Technical and legal measures for
international data markets [77.34726150561087]
データ保護法とプライバシーの権利が認められているにもかかわらず、個人情報の取引は「トレーディング・オイル」と同等のビジネスになっている。
オープンな対立は、データに対するビジネスの要求とプライバシーへの欲求の間に生じている。
プライバシを備えたパーソナル情報市場のビジョンを提案し,テストする。
論文 参考訳(メタデータ) (2020-05-13T13:55:50Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z) - Beyond privacy regulations: an ethical approach to data usage in
transportation [64.86110095869176]
本稿では,フェデレート機械学習を交通分野に適用する方法について述べる。
フェデレートラーニングは、ユーザのプライバシを尊重しつつ、プライバシに敏感なデータを処理可能にする方法だと考えています。
論文 参考訳(メタデータ) (2020-04-01T15:10:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。