論文の概要: Confidential and Protected Disease Classifier using Fully Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2405.02790v1
- Date: Sun, 5 May 2024 02:10:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 18:20:16.710294
- Title: Confidential and Protected Disease Classifier using Fully Homomorphic Encryption
- Title(参考訳): 完全同型暗号を用いた信頼・保護型疾患分類器
- Authors: Aditya Malik, Nalini Ratha, Bharat Yalavarthi, Tilak Sharma, Arjun Kaushik, Charanjit Jutla,
- Abstract要約: 多くのユーザーは、病気のために医療専門家に相談する前に、ChatGPTやBardのようなプラットフォームで潜在的な原因を探している。
このようなプラットフォームの利便性にもかかわらず、個人医療データをオンラインで共有することは、悪意のあるプラットフォームの存在を含むリスクを引き起こす。
安全かつプライベートな診断システムのためのFHEとDeep Learningを組み合わせた新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.09424565541639365
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the rapid surge in the prevalence of Large Language Models (LLMs), individuals are increasingly turning to conversational AI for initial insights across various domains, including health-related inquiries such as disease diagnosis. Many users seek potential causes on platforms like ChatGPT or Bard before consulting a medical professional for their ailment. These platforms offer valuable benefits by streamlining the diagnosis process, alleviating the significant workload of healthcare practitioners, and saving users both time and money by avoiding unnecessary doctor visits. However, Despite the convenience of such platforms, sharing personal medical data online poses risks, including the presence of malicious platforms or potential eavesdropping by attackers. To address privacy concerns, we propose a novel framework combining FHE and Deep Learning for a secure and private diagnosis system. Operating on a question-and-answer-based model akin to an interaction with a medical practitioner, this end-to-end secure system employs Fully Homomorphic Encryption (FHE) to handle encrypted input data. Given FHE's computational constraints, we adapt deep neural networks and activation functions to the encryted domain. Further, we also propose a faster algorithm to compute summation of ciphertext elements. Through rigorous experiments, we demonstrate the efficacy of our approach. The proposed framework achieves strict security and privacy with minimal loss in performance.
- Abstract(参考訳): LLM(Large Language Models)が急速に普及するにつれ、個人は、病気の診断などの健康に関する調査など、さまざまな領域での最初の洞察を得るために、会話型AIに目を向けるようになった。
多くのユーザーは、病気のために医療専門家に相談する前に、ChatGPTやBardのようなプラットフォームで潜在的な原因を探している。
これらのプラットフォームは、診断プロセスの合理化、医療従事者の多大な負担軽減、不要な医師の訪問を避けることで、時間とお金の両方を節約することで、貴重な利益を提供する。
しかし、そのようなプラットフォームの利便性にもかかわらず、個人医療データをオンラインで共有することは、悪意のあるプラットフォームの存在や攻撃者の盗聴などのリスクを引き起こす。
プライバシー問題に対処するため,安全かつプライベートな診断システムのためのFHEとDeep Learningを組み合わせた新しいフレームワークを提案する。
このエンドツーエンドのセキュアシステムでは、暗号化された入力データを処理するためにFHE(Fully Homomorphic Encryption)を採用している。
FHEの計算制約を考慮すると、深層ニューラルネットワークとアクティベーション関数をエンクリッド領域に適応させる。
さらに,暗号文要素の和を計算するアルゴリズムも提案する。
厳密な実験を通じて,本手法の有効性を実証する。
提案するフレームワークは,パフォーマンスの低下を最小限に抑えて,厳格なセキュリティとプライバシを実現する。
関連論文リスト
- Which Client is Reliable?: A Reliable and Personalized Prompt-based Federated Learning for Medical Image Question Answering [51.26412822853409]
本稿では,医学的視覚的質問応答(VQA)モデルのための,パーソナライズド・フェデレーションド・ラーニング(pFL)手法を提案する。
提案手法では,学習可能なプロンプトをTransformerアーキテクチャに導入し,膨大な計算コストを伴わずに,多様な医療データセット上で効率的にトレーニングする。
論文 参考訳(メタデータ) (2024-10-23T00:31:17Z) - Explainable Machine Learning-Based Security and Privacy Protection Framework for Internet of Medical Things Systems [1.8434042562191815]
インターネット・オブ・メディカル・モノ(IoMT)は、従来の医療境界を超越し、反応性治療から予防への転換を可能にする。
その利点は、処理されたデータの感度と価値のために、ユーザの生活を危険にさらす、重大なセキュリティ上の課題に対処されている。
新しいIDS(Intrusion Detection Systems)フレームワークを導入し、ANN(Artificial Neural Networks)を侵入検知に利用し、FL(Federated Learning)をプライバシ保護に活用する。
論文 参考訳(メタデータ) (2024-03-14T11:57:26Z) - Prompt-based Personalized Federated Learning for Medical Visual Question
Answering [56.002377299811656]
本稿では,データの不均一性とプライバシの懸念に対処するための,新しいプロンプトベースのパーソナライズド・フェデレーション・ラーニング(pFL)手法を提案する。
我々は、異なる臓器からの医療データセットをクライアントとみなし、各クライアントに対してパーソナライズされたトランスフォーマーベースのVQAモデルをトレーニングするためにpFLを使用する。
論文 参考訳(メタデータ) (2024-02-15T03:09:54Z) - Protect Your Score: Contact Tracing With Differential Privacy Guarantees [68.53998103087508]
プライバシーに関する懸念は、現在展開を控えている、と私たちは主張する。
本稿では,この攻撃に対して異なるプライバシー保証を有する接触追跡アルゴリズムを提案する。
特に現実的な検査シナリオでは,ウイルス感染率の2倍から10倍の低下を実現している。
論文 参考訳(メタデータ) (2023-12-18T11:16:33Z) - Privacy-Preserving Medical Image Classification through Deep Learning
and Matrix Decomposition [0.0]
近年,医学領域において深層学習(DL)ソリューションが広く研究されている。
医療関連データの利用は厳格に規制されており、病院の外部で医療記録を処理するためには、堅牢なデータ保護措置が必要である。
本稿では, 特異値分解(SVD)と主成分分析(PCA)を用いて, DL解析に使用する前に, 医用画像の難読化を行う。
保護されたデータから関連する情報を抽出するDLアルゴリズムの能力は、難読化フレームに基づく血管造影ビュー分類のタスクに基づいて評価される。
論文 参考訳(メタデータ) (2023-08-31T08:21:09Z) - DeID-GPT: Zero-shot Medical Text De-Identification by GPT-4 [80.36535668574804]
我々は新しいGPT4対応脱識別フレームワーク(DeID-GPT)を開発した。
開発したDeID-GPTは,非構造化医用テキストからの個人情報のマスキングにおいて,高い精度と信頼性を示した。
本研究は,ChatGPTおよびGPT-4を医療用テキストデータ処理および非識別に利用した最初期の1つである。
論文 参考訳(メタデータ) (2023-03-20T11:34:37Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Verifiable Proof of Health using Public Key Cryptography [13.992089238512678]
現在のパンデミックでは、検査が病気の拡散を監視し、抑制するための最も重要なツールであり続けている。
公共の場所が安全にオープンする準備が整うにつれて、テストステータスを検証する能力が重要になる。
暗号ツールの最近の進歩により、セキュアでレジリエントなデジタルIDシステムの構築が可能になった。
論文 参考訳(メタデータ) (2020-12-04T22:54:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。