論文の概要: Towards Privacy-preserving Explanations in Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2107.09652v1
- Date: Tue, 20 Jul 2021 17:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:57:40.569672
- Title: Towards Privacy-preserving Explanations in Medical Image Analysis
- Title(参考訳): 医療画像解析におけるプライバシー保護的説明に向けて
- Authors: H. Montenegro, W. Silva, J. S. Cardoso
- Abstract要約: PPRL-VGAN深層学習法は、高レベルのプライバシーを確保しつつ、疾患に関連する意味的特徴を保存するのに最適であった。
医用画像のプライバシー保護方法の改善の必要性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Deep Learning in the medical field is hindered by the lack of
interpretability. Case-based interpretability strategies can provide intuitive
explanations for deep learning models' decisions, thus, enhancing trust.
However, the resulting explanations threaten patient privacy, motivating the
development of privacy-preserving methods compatible with the specifics of
medical data. In this work, we analyze existing privacy-preserving methods and
their respective capacity to anonymize medical data while preserving
disease-related semantic features. We find that the PPRL-VGAN deep learning
method was the best at preserving the disease-related semantic features while
guaranteeing a high level of privacy among the compared state-of-the-art
methods. Nevertheless, we emphasize the need to improve privacy-preserving
methods for medical imaging, as we identified relevant drawbacks in all
existing privacy-preserving approaches.
- Abstract(参考訳): 医学分野におけるDeep Learningの使用は、解釈可能性の欠如によって妨げられている。
ケースベースの解釈可能性戦略は、ディープラーニングモデルの決定を直感的に説明し、信頼を高める。
しかし、結果として得られた説明は患者のプライバシーを脅かし、医療データの仕様と互換性のあるプライバシー保存方法の開発を動機付ける。
本研究では,既存のプライバシ保護手法とその医療データの匿名化能力について,疾患関連セマンティックな特徴を保ちながら分析する。
PPRL-VGAN深層学習法は, 疾患関連セマンティックな特徴の保存に最適であり, 比較した最先端手法のプライバシの高さを保証できた。
それにもかかわらず、既存のすべてのプライバシ保存アプローチの欠点を特定するため、医療画像のプライバシ保存方法の改善の必要性を強調した。
関連論文リスト
- FedDP: Privacy-preserving method based on federated learning for histopathology image segmentation [2.864354559973703]
本稿では,医用画像データの分散特性とプライバシ感受性について,フェデレート学習フレームワークを用いて検討する。
提案手法であるFedDPは,がん画像データのプライバシーを効果的に保護しつつ,モデルの精度に最小限の影響を与える。
論文 参考訳(メタデータ) (2024-11-07T08:02:58Z) - Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - In-depth Analysis of Privacy Threats in Federated Learning for Medical Data [2.6986500640871482]
医療分野では、医療画像を分析するための有望な機械学習技術として、フェデレートラーニングが登場している。
近年の研究では、フェデレートされた学習のデフォルト設定が、プライバシー攻撃に対して故意にプライベートトレーニングデータを公開する可能性があることが明らかになっている。
医療データを対象としたフェデレーション学習において,プライバシリスク分析と緩和に3つのオリジナルの貢献をしている。
論文 参考訳(メタデータ) (2024-09-27T16:45:35Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Safe and Interpretable Estimation of Optimal Treatment Regimes [54.257304443780434]
我々は、最適な治療体制を特定するための安全かつ解釈可能な枠組みを運用する。
本研究は患者の医療歴と薬理学的特徴に基づくパーソナライズされた治療戦略を支援する。
論文 参考訳(メタデータ) (2023-10-23T19:59:10Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Bridging the Gap: Differentially Private Equivariant Deep Learning for
Medical Image Analysis [7.49320945341034]
我々は、差分プライバシー(DP)を用いた医用画像解析に、ステアブル同変畳み込みネットワークを用いることを提案する。
それらの改善された特徴品質とパラメータ効率は、顕著な精度向上をもたらし、プライバシーと実用性のギャップを狭める。
論文 参考訳(メタデータ) (2022-09-09T14:51:13Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。