論文の概要: Towards Privacy-preserving Explanations in Medical Image Analysis
- arxiv url: http://arxiv.org/abs/2107.09652v1
- Date: Tue, 20 Jul 2021 17:35:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-21 14:57:40.569672
- Title: Towards Privacy-preserving Explanations in Medical Image Analysis
- Title(参考訳): 医療画像解析におけるプライバシー保護的説明に向けて
- Authors: H. Montenegro, W. Silva, J. S. Cardoso
- Abstract要約: PPRL-VGAN深層学習法は、高レベルのプライバシーを確保しつつ、疾患に関連する意味的特徴を保存するのに最適であった。
医用画像のプライバシー保護方法の改善の必要性を強調した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The use of Deep Learning in the medical field is hindered by the lack of
interpretability. Case-based interpretability strategies can provide intuitive
explanations for deep learning models' decisions, thus, enhancing trust.
However, the resulting explanations threaten patient privacy, motivating the
development of privacy-preserving methods compatible with the specifics of
medical data. In this work, we analyze existing privacy-preserving methods and
their respective capacity to anonymize medical data while preserving
disease-related semantic features. We find that the PPRL-VGAN deep learning
method was the best at preserving the disease-related semantic features while
guaranteeing a high level of privacy among the compared state-of-the-art
methods. Nevertheless, we emphasize the need to improve privacy-preserving
methods for medical imaging, as we identified relevant drawbacks in all
existing privacy-preserving approaches.
- Abstract(参考訳): 医学分野におけるDeep Learningの使用は、解釈可能性の欠如によって妨げられている。
ケースベースの解釈可能性戦略は、ディープラーニングモデルの決定を直感的に説明し、信頼を高める。
しかし、結果として得られた説明は患者のプライバシーを脅かし、医療データの仕様と互換性のあるプライバシー保存方法の開発を動機付ける。
本研究では,既存のプライバシ保護手法とその医療データの匿名化能力について,疾患関連セマンティックな特徴を保ちながら分析する。
PPRL-VGAN深層学習法は, 疾患関連セマンティックな特徴の保存に最適であり, 比較した最先端手法のプライバシの高さを保証できた。
それにもかかわらず、既存のすべてのプライバシ保存アプローチの欠点を特定するため、医療画像のプライバシ保存方法の改善の必要性を強調した。
関連論文リスト
- Estimating Trustworthy and Safe Optimal Treatment Regimes [56.29769827286456]
我々は、最適な治療体制を特定するための安全かつ解釈可能な枠組みを運用する。
本研究は患者の医療歴と薬理学的特徴に基づくパーソナライズされた治療戦略を支援する。
論文 参考訳(メタデータ) (2023-10-23T19:59:10Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Privacy-Preserving Medical Image Classification through Deep Learning
and Matrix Decomposition [0.0]
近年,医学領域において深層学習(DL)ソリューションが広く研究されている。
医療関連データの利用は厳格に規制されており、病院の外部で医療記録を処理するためには、堅牢なデータ保護措置が必要である。
本稿では, 特異値分解(SVD)と主成分分析(PCA)を用いて, DL解析に使用する前に, 医用画像の難読化を行う。
保護されたデータから関連する情報を抽出するDLアルゴリズムの能力は、難読化フレームに基づく血管造影ビュー分類のタスクに基づいて評価される。
論文 参考訳(メタデータ) (2023-08-31T08:21:09Z) - Vision Through the Veil: Differential Privacy in Federated Learning for
Medical Image Classification [15.382184404673389]
医療におけるディープラーニングアプリケーションの普及は、さまざまな機関にデータ収集を求める。
プライバシー保護メカニズムは、データが自然に敏感である医療画像解析において最重要である。
本研究は,プライバシ保護技術である差分プライバシを,医用画像分類のための統合学習フレームワークに統合することの必要性に対処する。
論文 参考訳(メタデータ) (2023-06-30T16:48:58Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning
Approach to Critical Care [68.8204255655161]
我々は、より信頼性の高いクリティカルケアポリシーを得ることができる深いQ-ラーニングアプローチを導入する。
まず、利用可能なすべての報酬に基づいてアクションセットを抽出し、次に、スパース主報酬に基づいて最終モデルを訓練し、制限されたアクションセットで達成する。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI
models in medical imaging [49.588766426499184]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - Bridging the Gap: Differentially Private Equivariant Deep Learning for
Medical Image Analysis [7.49320945341034]
我々は、差分プライバシー(DP)を用いた医用画像解析に、ステアブル同変畳み込みネットワークを用いることを提案する。
それらの改善された特徴品質とパラメータ効率は、顕著な精度向上をもたらし、プライバシーと実用性のギャップを狭める。
論文 参考訳(メタデータ) (2022-09-09T14:51:13Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。