論文の概要: Benchmarking Differentially Private Residual Networks for Medical
Imagery
- arxiv url: http://arxiv.org/abs/2005.13099v5
- Date: Sat, 5 Sep 2020 02:25:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:02:29.089029
- Title: Benchmarking Differentially Private Residual Networks for Medical
Imagery
- Title(参考訳): 医用画像のための差分プライベート残差ネットワークのベンチマーク
- Authors: Sahib Singh, Harshvardhan Sikka, Sasikanth Kotti, Andrew Trask
- Abstract要約: そこで我々は、ローカルDPとDP-SGDの2つの頑健な差分プライバシーメカニズムを比較した。
我々は、これらの理論上のプライバシー保証が、現実の医療環境にあることを実際に証明する上で、いかに有用かを評価する。
- 参考スコア(独自算出の注目度): 2.4469484645516837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we measure the effectiveness of $\epsilon$-Differential Privacy
(DP) when applied to medical imaging. We compare two robust differential
privacy mechanisms: Local-DP and DP-SGD and benchmark their performance when
analyzing medical imagery records. We analyze the trade-off between the model's
accuracy and the level of privacy it guarantees, and also take a closer look to
evaluate how useful these theoretical privacy guarantees actually prove to be
in the real world medical setting.
- Abstract(参考訳): 本稿では,医療画像に適用した場合,$\epsilon$-differential Privacy (DP) の有効性を評価する。
我々は,ローカルdpとdp-sgdの2つのロバストなディファレンシャルプライバシメカニズムを比較し,医療画像記録の解析におけるパフォーマンスをベンチマークする。
モデルの正確性と保証するプライバシのレベルとのトレードオフを分析し、これらの理論的なプライバシ保証が実際の医療環境において実際にどの程度有用であるかを評価する。
関連論文リスト
- Differentially Private Random Feature Model [52.468511541184895]
プライバシを保存するカーネルマシンに対して,差分的にプライベートな特徴モデルを作成する。
本手法は,プライバシを保護し,一般化誤差を導出する。
論文 参考訳(メタデータ) (2024-12-06T05:31:08Z) - Towards Privacy-Preserving Medical Imaging: Federated Learning with Differential Privacy and Secure Aggregation Using a Modified ResNet Architecture [0.0]
本研究では,局所的な差分プライバシーとセキュアアグリゲーションを組み合わせたフェデレート学習フレームワークを提案する。
また、差分プライバシーに最適化されたResNetアーキテクチャであるDPResNetを提案する。
論文 参考訳(メタデータ) (2024-12-01T05:52:29Z) - On Differentially Private 3D Medical Image Synthesis with Controllable Latent Diffusion Models [5.966954237899151]
本研究は, 短軸視における3次元心筋MRI像の課題に対処するものである。
医用属性に条件付き合成画像を生成する潜在拡散モデルを提案する。
UK Biobankデータセットに差分プライバシでモデルを微調整します。
論文 参考訳(メタデータ) (2024-07-23T11:49:58Z) - OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Towards Reliable Medical Image Segmentation by utilizing Evidential Calibrated Uncertainty [52.03490691733464]
本稿では,医療画像セグメンテーションネットワークにシームレスに統合可能な,実装が容易な基礎モデルであるDEviSを紹介する。
主観的論理理論を利用して、医用画像分割の問題に対する確率と不確実性を明示的にモデル化する。
DeviSには不確実性を考慮したフィルタリングモジュールが組み込まれている。
論文 参考訳(メタデータ) (2023-01-01T05:02:46Z) - Bridging the Gap: Differentially Private Equivariant Deep Learning for
Medical Image Analysis [7.49320945341034]
我々は、差分プライバシー(DP)を用いた医用画像解析に、ステアブル同変畳み込みネットワークを用いることを提案する。
それらの改善された特徴品質とパラメータ効率は、顕著な精度向上をもたらし、プライバシーと実用性のギャップを狭める。
論文 参考訳(メタデータ) (2022-09-09T14:51:13Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Cross-Modal Information Maximization for Medical Imaging: CMIM [62.28852442561818]
病院では、同じ情報を異なるモダリティの下で利用できるようにする特定の情報システムにデータがサイロ化される。
これは、テスト時に常に利用できないかもしれない同じ情報の複数のビューを列車で取得し、使用するためのユニークな機会を提供する。
テスト時にモダリティの低下に耐性を持つマルチモーダル入力の優れた表現を学習することで、利用可能なデータを最大限活用する革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-20T20:05:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。