論文の概要: Bridging the Gap: Differentially Private Equivariant Deep Learning for
Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2209.04338v1
- Date: Fri, 9 Sep 2022 14:51:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:34:49.224278
- Title: Bridging the Gap: Differentially Private Equivariant Deep Learning for
Medical Image Analysis
- Title(参考訳): ギャップをブリッジする: 医用画像解析のための差分プライベートな等価深層学習
- Authors: Florian A. H\"olzl, Daniel Rueckert, Georgios Kaissis
- Abstract要約: 我々は、差分プライバシー(DP)を用いた医用画像解析に、ステアブル同変畳み込みネットワークを用いることを提案する。
それらの改善された特徴品質とパラメータ効率は、顕著な精度向上をもたらし、プライバシーと実用性のギャップを狭める。
- 参考スコア(独自算出の注目度): 7.49320945341034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning with formal privacy-preserving techniques like Differential
Privacy (DP) allows one to derive valuable insights from sensitive medical
imaging data while promising to protect patient privacy, but it usually comes
at a sharp privacy-utility trade-off. In this work, we propose to use steerable
equivariant convolutional networks for medical image analysis with DP. Their
improved feature quality and parameter efficiency yield remarkable accuracy
gains, narrowing the privacy-utility gap.
- Abstract(参考訳): 差分プライバシー(DP)のような正式なプライバシー保護技術を用いた機械学習は、機密性の高い医療画像データから貴重な洞察を得ると同時に、患者のプライバシーを保護することを約束する。
本研究では,DPを用いた医用画像解析にステアブルな同変畳み込みネットワークを提案する。
機能品質とパラメータ効率の改善は、プライバシ利用のギャップを狭めながら、驚くべき精度向上をもたらす。
関連論文リスト
- OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI
models in medical imaging [49.588766426499184]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - Towards Privacy-preserving Explanations in Medical Image Analysis [0.0]
PPRL-VGAN深層学習法は、高レベルのプライバシーを確保しつつ、疾患に関連する意味的特徴を保存するのに最適であった。
医用画像のプライバシー保護方法の改善の必要性を強調した。
論文 参考訳(メタデータ) (2021-07-20T17:35:36Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Chasing Your Long Tails: Differentially Private Prediction in Health
Care Settings [34.26542589537452]
差分プライベート(DP)学習の方法は、プライバシ保証付きモデルを学習するための汎用的なアプローチを提供する。
DP学習の現代的な手法は、情報に過度にユニークなと判断される情報を検閲するメカニズムを通じて、プライバシーを確保する。
我々はDP学習に最先端の手法を用いて,臨床予測タスクにおけるプライバシ保護モデルを訓練する。
論文 参考訳(メタデータ) (2020-10-13T19:56:37Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Benchmarking Differentially Private Residual Networks for Medical
Imagery [2.4469484645516837]
そこで我々は、ローカルDPとDP-SGDの2つの頑健な差分プライバシーメカニズムを比較した。
我々は、これらの理論上のプライバシー保証が、現実の医療環境にあることを実際に証明する上で、いかに有用かを評価する。
論文 参考訳(メタデータ) (2020-05-27T00:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。