論文の概要: Differential privacy for protecting patient data in speech disorder detection using deep learning
- arxiv url: http://arxiv.org/abs/2409.19078v1
- Date: Fri, 27 Sep 2024 18:25:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-06 04:30:57.924510
- Title: Differential privacy for protecting patient data in speech disorder detection using deep learning
- Title(参考訳): 深層学習を用いた言語障害検出における患者データ保護のための差分プライバシー
- Authors: Soroosh Tayebi Arasteh, Mahshad Lotfinia, Paula Andrea Perez-Toro, Tomas Arias-Vergara, Juan Rafael Orozco-Arroyave, Maria Schuster, Andreas Maier, Seung Hee Yang,
- Abstract要約: 本研究は,ディファレンシャルプライバシ(DP)が病的音声データに与える影響を初めて調べたものである。
プライバシー予算7.51のDPを用いたトレーニングでは,最大精度が3.85%低下した。
本研究は,スペイン語を話すパーキンソン病患者の小さなデータセットに対するアプローチを一般化するために検証した。
- 参考スコア(独自算出の注目度): 11.01272267983849
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech pathology has impacts on communication abilities and quality of life. While deep learning-based models have shown potential in diagnosing these disorders, the use of sensitive data raises critical privacy concerns. Although differential privacy (DP) has been explored in the medical imaging domain, its application in pathological speech analysis remains largely unexplored despite the equally critical privacy concerns. This study is the first to investigate DP's impact on pathological speech data, focusing on the trade-offs between privacy, diagnostic accuracy, and fairness. Using a large, real-world dataset of 200 hours of recordings from 2,839 German-speaking participants, we observed a maximum accuracy reduction of 3.85% when training with DP with a privacy budget, denoted by {\epsilon}, of 7.51. To generalize our findings, we validated our approach on a smaller dataset of Spanish-speaking Parkinson's disease patients, demonstrating that careful pretraining on large-scale task-specific datasets can maintain or even improve model accuracy under DP constraints. We also conducted a comprehensive fairness analysis, revealing that reasonable privacy levels (2<{\epsilon}<10) do not introduce significant gender bias, though age-related disparities may require further attention. Our results suggest that DP can effectively balance privacy and utility in speech disorder detection, but also highlight the unique challenges in the speech domain, particularly regarding the privacy-fairness trade-off. This provides a foundation for future work to refine DP methodologies and address fairness across diverse patient groups in real-world deployments.
- Abstract(参考訳): 言語病理学はコミュニケーション能力と生活の質に影響を及ぼす。
ディープラーニングベースのモデルは、これらの障害を診断する可能性を示しているが、機密データを使用することは、重要なプライバシー上の懸念を引き起こす。
ディファレンシャル・プライバシ(DP)は医療画像領域で研究されているが、その病理学的音声分析への応用は、同様に重要なプライバシの懸念にもかかわらず、ほとんど未解明のままである。
本研究は,DPが病的音声データに与える影響を,プライバシ,診断精度,公平性のトレードオフに着目した初めての研究である。
ドイツ語を話す2,839人の参加者による200時間の大規模な実世界のデータセットを用いて、プライバシー予算でDPをトレーニングした場合の最大精度は3.85%低下し、7.51となった。
本研究は,スペイン語を話すパーキンソン病患者の小さなデータセットに対するアプローチを検証し,大規模タスク固有のデータセットに対する注意深い事前トレーニングがDP制約下でモデルの精度を維持したり改善したりすることを示した。
また, 年齢差には注意を要するが, 適切なプライバシレベル(2<{\epsilon}<10)は有意な性別バイアスを生じないことが明らかとなった。
以上の結果から,DPは音声障害検出におけるプライバシーとユーティリティのバランスを効果的に保ちつつ,特にプライバシとフェアネスのトレードオフに関して,音声領域におけるユニークな課題を浮き彫りにすることができることが示唆された。
これは、DP方法論を洗練し、現実の展開において多様な患者グループにまたがる公平性に取り組むための、将来の研究の基盤を提供する。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Privacy-Preserving Heterogeneous Federated Learning for Sensitive Healthcare Data [12.30620268528346]
我々は、AAFV(Abstention-Aware Federated Voting)と呼ばれる新しいフレームワークを提案する。
AAFVは、データのプライバシを同時に保護しながら、共同で機密的に異質なローカルモデルをトレーニングすることができる。
特に,提案手法では,不均一な局所モデルから高信頼投票を選択するために,しきい値に基づく棄権方式を採用している。
論文 参考訳(メタデータ) (2024-06-15T08:43:40Z) - The Impact of Speech Anonymization on Pathology and Its Limits [6.687980678659259]
本研究では,ドイツの複数の機関の2700人以上の話者を対象に,匿名化が病的スピーチに与える影響について検討した。
Dysarthria, Dysphonia, Cleft Lip and Palateなどの特定の疾患は最小限の効用変化を経験し, Dysglossiaはわずかに改善した。
論文 参考訳(メタデータ) (2024-04-11T18:06:35Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - The effect of speech pathology on automatic speaker verification -- a
large-scale study [6.468412158245622]
病的スピーチは 健康なスピーチに比べて プライバシー侵害のリスクが高まっています
ディスフォニアの成人は再識別のリスクが高まる一方、ディスフォニアのような症状は健康な話者に匹敵する結果をもたらす。
病理型間でデータをマージすると、EERは著しく低下し、自動話者検証における病理多様性の潜在的利点が示唆された。
論文 参考訳(メタデータ) (2022-04-13T15:17:00Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。