論文の概要: Towards Blockchain-Assisted Privacy-Aware Data Sharing For Edge
Intelligence: A Smart Healthcare Perspective
- arxiv url: http://arxiv.org/abs/2306.16630v1
- Date: Thu, 29 Jun 2023 02:06:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:06:20.415736
- Title: Towards Blockchain-Assisted Privacy-Aware Data Sharing For Edge
Intelligence: A Smart Healthcare Perspective
- Title(参考訳): ブロックチェーンによるエッジインテリジェンスのためのプライバシ対応データ共有を目指すスマートヘルスケア
- Authors: Youyang Qu, Lichuan Ma, Wenjie Ye, Xuemeng Zhai, Shui Yu, Yunfeng Li,
and David Smith
- Abstract要約: リンク攻撃はプライバシードメインにおける支配的な攻撃の一種である。
敵は 健康データを偽装するために 毒殺攻撃を仕掛ける 誤診や 身体的損傷までも 引き起こす
個人の健康データを保護するために,ユーザ間の信頼度に基づく個人差分プライバシモデルを提案する。
- 参考スコア(独自算出の注目度): 19.208368632576153
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The popularization of intelligent healthcare devices and big data analytics
significantly boosts the development of smart healthcare networks (SHNs). To
enhance the precision of diagnosis, different participants in SHNs share health
data that contains sensitive information. Therefore, the data exchange process
raises privacy concerns, especially when the integration of health data from
multiple sources (linkage attack) results in further leakage. Linkage attack is
a type of dominant attack in the privacy domain, which can leverage various
data sources for private data mining. Furthermore, adversaries launch poisoning
attacks to falsify the health data, which leads to misdiagnosing or even
physical damage. To protect private health data, we propose a personalized
differential privacy model based on the trust levels among users. The trust is
evaluated by a defined community density, while the corresponding privacy
protection level is mapped to controllable randomized noise constrained by
differential privacy. To avoid linkage attacks in personalized differential
privacy, we designed a noise correlation decoupling mechanism using a Markov
stochastic process. In addition, we build the community model on a blockchain,
which can mitigate the risk of poisoning attacks during differentially private
data transmission over SHNs. To testify the effectiveness and superiority of
the proposed approach, we conduct extensive experiments on benchmark datasets.
- Abstract(参考訳): インテリジェントな医療機器とビッグデータ分析の普及は、smart healthcare network (shns) の開発を著しく促進している。
診断精度を高めるために、SHNの異なる参加者は、機密情報を含む健康データを共有する。
したがって、データ交換プロセスは、特に複数のソース(リンク攻撃)からの健康データの統合がさらなる漏洩をもたらすと、プライバシー上の懸念を引き起こす。
リンク攻撃はプライバシドメインにおける支配的な攻撃の一種であり、プライベートデータマイニングにさまざまなデータソースを活用することができる。
さらに、敵は健康データを改ざんするために毒殺攻撃を起こし、誤診断や身体的損傷につながる。
個人の健康データを保護するために,ユーザ間の信頼度に基づく個人差分プライバシーモデルを提案する。
信頼は、定義されたコミュニティ密度によって評価され、対応するプライバシー保護レベルは、微分プライバシーによって制約された制御可能なランダム化ノイズにマッピングされる。
個人差分プライバシーにおけるリンク攻撃を回避するため,マルコフ確率過程を用いたノイズ相関分離機構を設計した。
さらに,ブロックチェーン上でのコミュニティモデルを構築し,SHN上での個人データ送信において,毒性攻撃のリスクを軽減する。
提案手法の有効性と優位性を実証するため,ベンチマークデータセット上で広範囲な実験を行った。
関連論文リスト
- Privacy-Preserving Heterogeneous Federated Learning for Sensitive Healthcare Data [12.30620268528346]
我々は、AAFV(Abstention-Aware Federated Voting)と呼ばれる新しいフレームワークを提案する。
AAFVは、データのプライバシを同時に保護しながら、共同で機密的に異質なローカルモデルをトレーニングすることができる。
特に,提案手法では,不均一な局所モデルから高信頼投票を選択するために,しきい値に基づく棄権方式を採用している。
論文 参考訳(メタデータ) (2024-06-15T08:43:40Z) - Group Decision-Making among Privacy-Aware Agents [2.4401219403555814]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Mitigating Leakage from Data Dependent Communications in Decentralized
Computing using Differential Privacy [1.911678487931003]
本稿では,ユーザ側分散計算における通信データ依存性を制御する汎用実行モデルを提案する。
私たちの公式なプライバシー保証は、シャッフルによるプライバシーの増幅に関する最近の結果を活用し、拡張します。
論文 参考訳(メタデータ) (2021-12-23T08:30:17Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Deep Directed Information-Based Learning for Privacy-Preserving Smart
Meter Data Release [30.409342804445306]
本稿では,時系列データとスマートメータ(SM)電力消費測定の文脈における問題点について検討する。
我々は、考慮された設定において、より意味のあるプライバシーの尺度として、指向情報(DI)を導入します。
最悪のシナリオにおけるSMs測定による実世界のデータセットに関する実証的研究は、プライバシとユーティリティの既存のトレードオフを示している。
論文 参考訳(メタデータ) (2020-11-20T13:41:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。