論文の概要: Differential privacy enables fair and accurate AI-based analysis of speech disorders while protecting patient data
- arxiv url: http://arxiv.org/abs/2409.19078v2
- Date: Thu, 26 Dec 2024 12:56:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:23:31.351964
- Title: Differential privacy enables fair and accurate AI-based analysis of speech disorders while protecting patient data
- Title(参考訳): 差別化プライバシは、患者のデータを保護しながら、公正で正確な音声障害の分析を可能にする
- Authors: Soroosh Tayebi Arasteh, Mahshad Lotfinia, Paula Andrea Perez-Toro, Tomas Arias-Vergara, Mahtab Ranji, Juan Rafael Orozco-Arroyave, Maria Schuster, Andreas Maier, Seung Hee Yang,
- Abstract要約: 本研究は,ディファレンシャルプライバシ(DP)が病的音声データに与える影響を初めて調べたものである。
プライバシーレベルの高いDPのトレーニングでは,最大3.85%の精度低下が観察された。
言語や障害にまたがる知見を一般化するため,スペイン語を話すパーキンソン病患者のデータセットに対するアプローチを検証した。
- 参考スコア(独自算出の注目度): 10.6135892856374
- License:
- Abstract: Speech pathology has impacts on communication abilities and quality of life. While deep learning-based models have shown potential in diagnosing these disorders, the use of sensitive data raises critical privacy concerns. Although differential privacy (DP) has been explored in the medical imaging domain, its application in pathological speech analysis remains largely unexplored despite the equally critical privacy concerns. This study is the first to investigate DP's impact on pathological speech data, focusing on the trade-offs between privacy, diagnostic accuracy, and fairness. Using a large, real-world dataset of 200 hours of recordings from 2,839 German-speaking participants, we observed a maximum accuracy reduction of 3.85% when training with DP with high privacy levels. To highlight real-world privacy risks, we demonstrated the vulnerability of non-private models to explicit gradient inversion attacks, reconstructing identifiable speech samples and showcasing DP's effectiveness in mitigating these risks. To generalize our findings across languages and disorders, we validated our approach on a dataset of Spanish-speaking Parkinson's disease patients, leveraging pretrained models from healthy English-speaking datasets, and demonstrated that careful pretraining on large-scale task-specific datasets can maintain favorable accuracy under DP constraints. A comprehensive fairness analysis revealed minimal gender bias at reasonable privacy levels but underscored the need for addressing age-related disparities. Our results establish that DP can balance privacy and utility in speech disorder detection, while highlighting unique challenges in privacy-fairness trade-offs for speech data. This provides a foundation for refining DP methodologies and improving fairness across diverse patient groups in real-world deployments.
- Abstract(参考訳): 言語病理学はコミュニケーション能力と生活の質に影響を及ぼす。
ディープラーニングベースのモデルは、これらの障害を診断する可能性を示しているが、機密データを使用することは、重要なプライバシー上の懸念を引き起こす。
ディファレンシャル・プライバシ(DP)は医療画像領域で研究されているが、その病理学的音声分析への応用は、同様に重要なプライバシの懸念にもかかわらず、ほとんど未解明のままである。
本研究は,DPが病的音声データに与える影響を,プライバシ,診断精度,公平性のトレードオフに着目した初めての研究である。
2,839人のドイツ語話者の200時間の大規模な実世界のデータセットを用いて、プライバシーレベルの高いDPでトレーニングすると、最大3.85%の精度の低下が観察された。
現実のプライバシーリスクを強調するために,我々は,非民間モデルによる明示的な勾配反転攻撃に対する脆弱性を実証し,識別可能な音声サンプルを再構成し,これらのリスクを軽減する上でのDPの有効性を示した。
言語や障害にまたがる知見を一般化するため, スペイン語話者のパーキンソン病患者のデータセットに対するアプローチを検証し, 健全な英語を話すデータセットから事前学習したモデルを活用し, 大規模タスク固有のデータセットに対する注意深い事前学習がDP制約下で良好な精度を維持することを実証した。
包括的公正分析では、適切なプライバシーレベルでの性別バイアスは最小であったが、年齢に関する格差に対処する必要性が強調された。
以上の結果から,DPは音声障害検出におけるプライバシとユーティリティのバランスを保ちつつ,音声データに対するプライバシとフェアネスのトレードオフの独特な課題を浮き彫りにした。
これは、DP方法論の洗練と、実際のデプロイメントにおける多様な患者グループ間の公正性向上のための基盤を提供する。
関連論文リスト
- The Impact of Speech Anonymization on Pathology and Its Limits [6.687980678659259]
本研究では,ドイツの複数の機関の2700人以上の話者を対象に,匿名化が病的スピーチに与える影響について検討した。
Dysarthria, Dysphonia, Cleft Lip and Palateなどの特定の疾患は最小限の効用変化を経験し, Dysglossiaはわずかに改善した。
論文 参考訳(メタデータ) (2024-04-11T18:06:35Z) - OpticalDR: A Deep Optical Imaging Model for Privacy-Protective
Depression Recognition [66.91236298878383]
抑うつ認識(DR)は、特にプライバシー上の懸念の文脈において、大きな課題となる。
我々は,疾患関連特徴を保持しつつ,撮像した顔画像の識別情報を消去する新しいイメージングシステムを設計した。
正確なDRに必要な本態性疾患の特徴を保ちながら、アイデンティティ情報の回復には不可逆である。
論文 参考訳(メタデータ) (2024-02-29T01:20:29Z) - Differential Private Federated Transfer Learning for Mental Health Monitoring in Everyday Settings: A Case Study on Stress Detection [4.439102809224707]
メンタルヘルスの状況は、生活の質に対する悪影響を軽減するために、効率的なモニタリングを必要とする。
既存のアプローチは、現実世界のアプリケーションにおいて、特定のサイバー攻撃やデータ不足に対する脆弱性と戦っている。
メンタルヘルスモニタリングのための差分私的フェデレート・トランスファー学習フレームワークを導入し,データプライバシの向上とデータ満足度の向上を図る。
論文 参考訳(メタデータ) (2024-02-16T18:00:04Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Preserving privacy in domain transfer of medical AI models comes at no
performance costs: The integral role of differential privacy [5.025818976218807]
DP-DT(DP-enhanced domain transfer)は, 心肥大, 胸水, 肺炎, 気腫, 健常者の診断に有効であった。
その結果,DP-DTは極めて高いプライバシレベルであっても,非DP-DTと相容れない性能を示した。
論文 参考訳(メタデータ) (2023-06-10T18:41:50Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - The effect of speech pathology on automatic speaker verification -- a
large-scale study [6.468412158245622]
病的スピーチは 健康なスピーチに比べて プライバシー侵害のリスクが高まっています
ディスフォニアの成人は再識別のリスクが高まる一方、ディスフォニアのような症状は健康な話者に匹敵する結果をもたらす。
病理型間でデータをマージすると、EERは著しく低下し、自動話者検証における病理多様性の潜在的利点が示唆された。
論文 参考訳(メタデータ) (2022-04-13T15:17:00Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - Practical Challenges in Differentially-Private Federated Survival
Analysis of Medical Data [57.19441629270029]
本稿では,ニューラルネットワークの本質的特性を活用し,生存分析モデルの訓練過程を関連づける。
小さな医療データセットと少数のデータセンターの現実的な設定では、このノイズはモデルを収束させるのが難しくなります。
DPFed-post は,私的フェデレート学習方式に後処理の段階を追加する。
論文 参考訳(メタデータ) (2022-02-08T10:03:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。