論文の概要: AI-Driven Secure Data Sharing: A Trustworthy and Privacy-Preserving Approach
- arxiv url: http://arxiv.org/abs/2501.15363v1
- Date: Sun, 26 Jan 2025 02:03:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:57:36.905482
- Title: AI-Driven Secure Data Sharing: A Trustworthy and Privacy-Preserving Approach
- Title(参考訳): AIによるセキュアなデータ共有 - 信頼できるプライバシ保護アプローチ
- Authors: Al Amin, Kamrul Hasan, Sharif Ullah, Liang Hong,
- Abstract要約: 本研究は,ブロックピクセル操作に基づく学習可能な暗号化手法によるセキュアなフレームワークを導入し,データを暗号化する。
提案されたフレームワークは、キーごとにユニークなスクランブルパターンを作成することによって、データのプライバシとセキュリティを保証する。
このフレームワークは、実世界のデータセットを広範囲にテストした後、94%の成功率で検証された。
- 参考スコア(独自算出の注目度): 1.4274471390400758
- License:
- Abstract: In the era of data-driven decision-making, ensuring the privacy and security of shared data is paramount across various domains. Applying existing deep neural networks (DNNs) to encrypted data is critical and often compromises performance, security, and computational overhead. To address these limitations, this research introduces a secure framework consisting of a learnable encryption method based on the block-pixel operation to encrypt the data and subsequently integrate it with the Vision Transformer (ViT). The proposed framework ensures data privacy and security by creating unique scrambling patterns per key, providing robust performance against adversarial attacks without compromising computational efficiency and data integrity. The framework was tested on sensitive medical datasets to validate its efficacy, proving its ability to handle highly confidential information securely. The suggested framework was validated with a 94\% success rate after extensive testing on real-world datasets, such as MRI brain tumors and histological scans of lung and colon cancers. Additionally, the framework was tested under diverse adversarial attempts against secure data sharing with optimum performance and demonstrated its effectiveness in various threat scenarios. These comprehensive analyses underscore its robustness, making it a trustworthy solution for secure data sharing in critical applications.
- Abstract(参考訳): データ駆動意思決定の時代には、共有データのプライバシとセキュリティが、さまざまな領域で最重要である。
既存のディープニューラルネットワーク(DNN)を暗号化データに適用することは重要であり、しばしばパフォーマンス、セキュリティ、計算オーバーヘッドを損なう。
これらの制約に対処するために,ブロックピクセル操作をベースとした学習可能な暗号化手法によるセキュアなフレームワークを導入し,それをViT(Vision Transformer)と統合する。
提案するフレームワークは,キー毎に独自のスクランブルパターンを作成することで,データのプライバシとセキュリティを保証する。
このフレームワークは、機密性の高い医療データセットでその有効性を検証するためにテストされ、機密性の高い情報を安全に処理できることが証明された。
提案したフレームワークは、MRI脳腫瘍や肺・大腸癌の組織学的スキャンなど、実世界のデータセットを広範囲に検査した後、94 %の成功率で検証された。
さらに、このフレームワークは、最適なパフォーマンスでセキュアなデータ共有を試み、様々な脅威シナリオでその有効性を実証した。
これらの包括的な分析は、その堅牢性を強調し、重要なアプリケーションにおけるセキュアなデータ共有のための信頼できるソリューションである。
関連論文リスト
- ViT Enhanced Privacy-Preserving Secure Medical Data Sharing and Classification [8.140412831443454]
本研究では,ブロックピクセル操作をベースとした,学習可能な暗号化手法によるセキュアなフレームワークを導入し,それをViT(Vision Transformer)と統合する。
提案したフレームワークは、キー毎に独自のスクランブルパターンを作成し、リードビット攻撃と最小差攻撃に対して堅牢なパフォーマンスを提供することにより、データのプライバシとセキュリティを保証する。
論文 参考訳(メタデータ) (2024-11-08T16:33:20Z) - Federated Instruction Tuning of LLMs with Domain Coverage Augmentation [87.49293964617128]
Federated Domain-specific Instruction Tuning (FedDIT)は、限られたクロスクライアントなプライベートデータと、命令拡張のさまざまな戦略を利用する。
我々は,欲求のあるクライアントセンターの選択と検索に基づく拡張を通じて,ドメインカバレッジを最適化するFedDCAを提案する。
クライアント側の計算効率とシステムのスケーラビリティのために、FedDCAの変種であるFedDCA$*$はサーバ側の特徴アライメントを備えた異種エンコーダを利用する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - Towards Secure and Private AI: A Framework for Decentralized Inference [14.526663289437584]
大規模マルチモーダル基盤モデルは、スケーラビリティ、信頼性、潜在的な誤用に関する課題を提示する。
分散システムは、ワークロードの分散と障害の中心的なポイントの緩和によるソリューションを提供する。
これらの課題に対処するためには、AI開発に責任を負うように設計された包括的なフレームワークを使います。
論文 参考訳(メタデータ) (2024-07-28T05:09:17Z) - Securing Health Data on the Blockchain: A Differential Privacy and Federated Learning Framework [1.3654846342364306]
この研究は、差分プライバシー(DP)とフェデレートラーニング(FL)を統合し、IoTノードが収集した機密健康データを保護する。
提案フレームワークは、動的パーソナライズと適応型ノイズ分配戦略を利用して、プライバシとデータユーティリティのバランスをとる。
論文 参考訳(メタデータ) (2024-05-19T15:15:18Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Secure and Verifiable Data Collaboration with Low-Cost Zero-Knowledge
Proofs [30.260427020479536]
本稿では,セキュアかつ検証可能なデータコラボレーションのための新しい高効率ソリューションRiseFLを提案する。
まず,ZKP生成と検証のコストを大幅に削減する確率論的整合性検査法を提案する。
第3に,ビザンチンのロバスト性を満たすハイブリッドなコミットメントスキームを設計し,性能を向上する。
論文 参考訳(メタデータ) (2023-11-26T14:19:46Z) - Blockchain-empowered Federated Learning for Healthcare Metaverses:
User-centric Incentive Mechanism with Optimal Data Freshness [66.3982155172418]
まず、医療メタバースのための分散型フェデレートラーニング(FL)に基づく、ユーザ中心のプライバシ保護フレームワークを設計する。
次に,情報時代(AoI)を有効データ更新度指標として利用し,観測理論(PT)に基づくAoIベースの契約理論モデルを提案し,センシングデータ共有の動機付けを行う。
論文 参考訳(メタデータ) (2023-07-29T12:54:03Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。