論文の概要: Differential privacy for protecting patient data in speech disorder detection using deep learning
- arxiv url: http://arxiv.org/abs/2409.19078v1
- Date: Fri, 27 Sep 2024 18:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:30:57.924510
- Title: Differential privacy for protecting patient data in speech disorder detection using deep learning
- Title(参考訳): 深層学習を用いた言語障害検出における患者データ保護のための差分プライバシー
- Authors: Soroosh Tayebi Arasteh, Mahshad Lotfinia, Paula Andrea Perez-Toro, Tomas Arias-Vergara, Juan Rafael Orozco-Arroyave, Maria Schuster, Andreas Maier, Seung Hee Yang,
- Abstract要約: 本研究は,ディファレンシャルプライバシ(DP)が病的音声データに与える影響を初めて調べたものである。
プライバシー予算7.51のDPを用いたトレーニングでは,最大精度が3.85%低下した。
本研究は,スペイン語を話すパーキンソン病患者の小さなデータセットに対するアプローチを一般化するために検証した。
- 参考スコア(独自算出の注目度): 11.01272267983849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech pathology has impacts on communication abilities and quality of life. While deep learning-based models have shown potential in diagnosing these disorders, the use of sensitive data raises critical privacy concerns. Although differential privacy (DP) has been explored in the medical imaging domain, its application in pathological speech analysis remains largely unexplored despite the equally critical privacy concerns. This study is the first to investigate DP's impact on pathological speech data, focusing on the trade-offs between privacy, diagnostic accuracy, and fairness. Using a large, real-world dataset of 200 hours of recordings from 2,839 German-speaking participants, we observed a maximum accuracy reduction of 3.85% when training with DP with a privacy budget, denoted by {\epsilon}, of 7.51. To generalize our findings, we validated our approach on a smaller dataset of Spanish-speaking Parkinson's disease patients, demonstrating that careful pretraining on large-scale task-specific datasets can maintain or even improve model accuracy under DP constraints. We also conducted a comprehensive fairness analysis, revealing that reasonable privacy levels (2<{\epsilon}<10) do not introduce significant gender bias, though age-related disparities may require further attention. Our results suggest that DP can effectively balance privacy and utility in speech disorder detection, but also highlight the unique challenges in the speech domain, particularly regarding the privacy-fairness trade-off. This provides a foundation for future work to refine DP methodologies and address fairness across diverse patient groups in real-world deployments.
- Abstract(参考訳): 言語病理学はコミュニケーション能力と生活の質に影響を及ぼす。
ディープラーニングベースのモデルは、これらの障害を診断する可能性を示しているが、機密データを使用することは、重要なプライバシー上の懸念を引き起こす。
ディファレンシャル・プライバシ(DP)は医療画像領域で研究されているが、その病理学的音声分析への応用は、同様に重要なプライバシの懸念にもかかわらず、ほとんど未解明のままである。
本研究は,DPが病的音声データに与える影響を,プライバシ,診断精度,公平性のトレードオフに着目した初めての研究である。
ドイツ語を話す2,839人の参加者による200時間の大規模な実世界のデータセットを用いて、プライバシー予算でDPをトレーニングした場合の最大精度は3.85%低下し、7.51となった。
本研究は,スペイン語を話すパーキンソン病患者の小さなデータセットに対するアプローチを検証し,大規模タスク固有のデータセットに対する注意深い事前トレーニングがDP制約下でモデルの精度を維持したり改善したりすることを示した。
また, 年齢差には注意を要するが, 適切なプライバシレベル(2<{\epsilon}<10)は有意な性別バイアスを生じないことが明らかとなった。
以上の結果から,DPは音声障害検出におけるプライバシーとユーティリティのバランスを効果的に保ちつつ,特にプライバシとフェアネスのトレードオフに関して,音声領域におけるユニークな課題を浮き彫りにすることができることが示唆された。
これは、DP方法論を洗練し、現実の展開において多様な患者グループにまたがる公平性に取り組むための、将来の研究の基盤を提供する。
関連論文リスト
- The Impact of Speech Anonymization on Pathology and Its Limits [6.687980678659259]
本研究では,ドイツの複数の機関の2700人以上の話者を対象に,匿名化が病的スピーチに与える影響について検討した。
Dysarthria, Dysphonia, Cleft Lip and Palateなどの特定の疾患は最小限の効用変化を経験し, Dysglossiaはわずかに改善した。
論文 参考訳(メタデータ) (2024-04-11T18:06:35Z) - OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Differential Private Federated Transfer Learning for Mental Health Monitoring in Everyday Settings: A Case Study on Stress Detection [4.439102809224707]
メンタルヘルスの状況は、生活の質に対する悪影響を軽減するために、効率的なモニタリングを必要とする。
既存のアプローチは、現実世界のアプリケーションにおいて、特定のサイバー攻撃やデータ不足に対する脆弱性と戦っている。
メンタルヘルスモニタリングのための差分私的フェデレート・トランスファー学習フレームワークを導入し,データプライバシの向上とデータ満足度の向上を図る。
論文 参考訳(メタデータ) (2024-02-16T18:00:04Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Preserving privacy in domain transfer of medical AI models comes at no
performance costs: The integral role of differential privacy [5.025818976218807]
DP-DT(DP-enhanced domain transfer)は, 心肥大, 胸水, 肺炎, 気腫, 健常者の診断に有効であった。
その結果,DP-DTは極めて高いプライバシレベルであっても,非DP-DTと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-06-10T18:41:50Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - The effect of speech pathology on automatic speaker verification -- a
large-scale study [6.468412158245622]
病的スピーチは 健康なスピーチに比べて プライバシー侵害のリスクが高まっています
ディスフォニアの成人は再識別のリスクが高まる一方、ディスフォニアのような症状は健康な話者に匹敵する結果をもたらす。
病理型間でデータをマージすると、EERは著しく低下し、自動話者検証における病理多様性の潜在的利点が示唆された。
論文 参考訳(メタデータ) (2022-04-13T15:17:00Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。