論文の概要: ViT Enhanced Privacy-Preserving Secure Medical Data Sharing and Classification
- arxiv url: http://arxiv.org/abs/2411.05901v1
- Date: Fri, 08 Nov 2024 16:33:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:12:24.262878
- Title: ViT Enhanced Privacy-Preserving Secure Medical Data Sharing and Classification
- Title(参考訳): ViTによるセキュアな医療データ共有と分類のためのプライバシ保護
- Authors: Al Amin, Kamrul Hasan, Sharif Ullah, M. Shamim Hossain,
- Abstract要約: 本研究では,ブロックピクセル操作をベースとした,学習可能な暗号化手法によるセキュアなフレームワークを導入し,それをViT(Vision Transformer)と統合する。
提案したフレームワークは、キー毎に独自のスクランブルパターンを作成し、リードビット攻撃と最小差攻撃に対して堅牢なパフォーマンスを提供することにより、データのプライバシとセキュリティを保証する。
- 参考スコア(独自算出の注目度): 8.140412831443454
- License:
- Abstract: Privacy-preserving and secure data sharing are critical for medical image analysis while maintaining accuracy and minimizing computational overhead are also crucial. Applying existing deep neural networks (DNNs) to encrypted medical data is not always easy and often compromises performance and security. To address these limitations, this research introduces a secure framework consisting of a learnable encryption method based on the block-pixel operation to encrypt the data and subsequently integrate it with the Vision Transformer (ViT). The proposed framework ensures data privacy and security by creating unique scrambling patterns per key, providing robust performance against leading bit attacks and minimum difference attacks.
- Abstract(参考訳): プライバシ保存とセキュアなデータ共有は、正確性を維持し、計算オーバーヘッドを最小限に抑えながら、医用画像解析に不可欠である。
既存のディープニューラルネットワーク(DNN)を暗号化された医療データに適用することは、必ずしも簡単ではなく、パフォーマンスとセキュリティを損なうことが多い。
これらの制約に対処するために,ブロックピクセル操作をベースとした学習可能な暗号化手法によるセキュアなフレームワークを導入し,それをViT(Vision Transformer)と統合する。
提案したフレームワークは、キー毎に独自のスクランブルパターンを作成し、リードビット攻撃と最小差攻撃に対して堅牢なパフォーマンスを提供することにより、データのプライバシとセキュリティを保証する。
関連論文リスト
- AI-Driven Secure Data Sharing: A Trustworthy and Privacy-Preserving Approach [1.4274471390400758]
本研究は,ブロックピクセル操作に基づく学習可能な暗号化手法によるセキュアなフレームワークを導入し,データを暗号化する。
提案されたフレームワークは、キーごとにユニークなスクランブルパターンを作成することによって、データのプライバシとセキュリティを保証する。
このフレームワークは、実世界のデータセットを広範囲にテストした後、94%の成功率で検証された。
論文 参考訳(メタデータ) (2025-01-26T02:03:19Z) - Noise-Resilient Homomorphic Encryption: A Framework for Secure Data Processing in Health care Domain [0.0]
ホモモルフィック・インテグリティ・モデル(HIM)は、暗号化されたデータ処理におけるセキュリティ、効率、信頼性を高めるために設計された。
復号化機構により、複雑な同型計算によって得られたデータが有効で信頼性が高いことが保証される。
論文 参考訳(メタデータ) (2024-12-16T06:26:40Z) - DataSeal: Ensuring the Verifiability of Private Computation on Encrypted Data [14.21750921409931]
我々は,アルゴリズムベースのフォールトトレランス(ABFT)手法の低オーバーヘッドと完全同型暗号化(FHE)の秘密性を組み合わせたDataSealを紹介する。
DataSealは、MAC、ZKP、TEEを含む他の技術よりも、FHEの計算検証性を提供するためのオーバーヘッドをはるかに少なくする。
論文 参考訳(メタデータ) (2024-10-19T21:19:39Z) - Improving Privacy-Preserving Techniques for Smart Grid using Lattice-based Cryptography [1.4856472820492366]
SPDBlockはブロックチェーンベースのソリューションで、プライバシ、完全性、攻撃に対する耐性を保証する。
多次元データ送信を効率的に処理しながら、悪意のあるエンティティを検出し、訴追する。
性能テストにより、SPDBlockは従来のスキームよりも通信と計算効率が優れていることが明らかになった。
論文 参考訳(メタデータ) (2024-04-17T19:51:52Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - Reinforcement Learning on Encrypted Data [58.39270571778521]
本稿では,DQNエージェントが,離散的かつ連続的な状態空間を持つ環境でどのように動作するかを予備的,実験的に検討する。
その結果,非決定論的暗号が存在する場合でも,エージェントは依然として小さな状態空間で学習することができるが,より複雑な環境では性能が低下することがわかった。
論文 参考訳(メタデータ) (2021-09-16T21:59:37Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - BUNET: Blind Medical Image Segmentation Based on Secure UNET [24.374253627122467]
UNETアーキテクチャに基づくプライバシ保護型医用画像セグメンテーションを実装したセキュアプロトコルであるブラインドUNET(BUNET)を提案する。
BUNETでは、同相暗号やガーブロード回路(GC)などの暗号プリミティブを効率よく利用し、UNETニューラルアーキテクチャのための完全なセキュアなプロトコルを設計する。
本研究では, 既知精度の低下を伴うベースラインアーキテクチャにおいて, 最先端のセキュア推論技術と比較して最大14倍の推論時間短縮を実現することができることを示す。
論文 参考訳(メタデータ) (2020-07-14T07:05:23Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。