論文の概要: Differential privacy enables fair and accurate AI-based analysis of speech disorders while protecting patient data
- arxiv url: http://arxiv.org/abs/2409.19078v2
- Date: Thu, 26 Dec 2024 12:56:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:23:31.351964
- Title: Differential privacy enables fair and accurate AI-based analysis of speech disorders while protecting patient data
- Title(参考訳): 差別化プライバシは、患者のデータを保護しながら、公正で正確な音声障害の分析を可能にする
- Authors: Soroosh Tayebi Arasteh, Mahshad Lotfinia, Paula Andrea Perez-Toro, Tomas Arias-Vergara, Mahtab Ranji, Juan Rafael Orozco-Arroyave, Maria Schuster, Andreas Maier, Seung Hee Yang,
- Abstract要約: 本研究は,ディファレンシャルプライバシ(DP)が病的音声データに与える影響を初めて調べたものである。
プライバシーレベルの高いDPのトレーニングでは,最大3.85%の精度低下が観察された。
言語や障害にまたがる知見を一般化するため,スペイン語を話すパーキンソン病患者のデータセットに対するアプローチを検証した。
- 参考スコア(独自算出の注目度): 10.6135892856374
- License:
- Abstract: Speech pathology has impacts on communication abilities and quality of life. While deep learning-based models have shown potential in diagnosing these disorders, the use of sensitive data raises critical privacy concerns. Although differential privacy (DP) has been explored in the medical imaging domain, its application in pathological speech analysis remains largely unexplored despite the equally critical privacy concerns. This study is the first to investigate DP's impact on pathological speech data, focusing on the trade-offs between privacy, diagnostic accuracy, and fairness. Using a large, real-world dataset of 200 hours of recordings from 2,839 German-speaking participants, we observed a maximum accuracy reduction of 3.85% when training with DP with high privacy levels. To highlight real-world privacy risks, we demonstrated the vulnerability of non-private models to explicit gradient inversion attacks, reconstructing identifiable speech samples and showcasing DP's effectiveness in mitigating these risks. To generalize our findings across languages and disorders, we validated our approach on a dataset of Spanish-speaking Parkinson's disease patients, leveraging pretrained models from healthy English-speaking datasets, and demonstrated that careful pretraining on large-scale task-specific datasets can maintain favorable accuracy under DP constraints. A comprehensive fairness analysis revealed minimal gender bias at reasonable privacy levels but underscored the need for addressing age-related disparities. Our results establish that DP can balance privacy and utility in speech disorder detection, while highlighting unique challenges in privacy-fairness trade-offs for speech data. This provides a foundation for refining DP methodologies and improving fairness across diverse patient groups in real-world deployments.
- Abstract(参考訳): 言語病理学はコミュニケーション能力と生活の質に影響を及ぼす。
ディープラーニングベースのモデルは、これらの障害を診断する可能性を示しているが、機密データを使用することは、重要なプライバシー上の懸念を引き起こす。
ディファレンシャル・プライバシ(DP)は医療画像領域で研究されているが、その病理学的音声分析への応用は、同様に重要なプライバシの懸念にもかかわらず、ほとんど未解明のままである。
本研究は,DPが病的音声データに与える影響を,プライバシ,診断精度,公平性のトレードオフに着目した初めての研究である。
2,839人のドイツ語話者の200時間の大規模な実世界のデータセットを用いて、プライバシーレベルの高いDPでトレーニングすると、最大3.85%の精度の低下が観察された。
現実のプライバシーリスクを強調するために,我々は,非民間モデルによる明示的な勾配反転攻撃に対する脆弱性を実証し,識別可能な音声サンプルを再構成し,これらのリスクを軽減する上でのDPの有効性を示した。
言語や障害にまたがる知見を一般化するため, スペイン語話者のパーキンソン病患者のデータセットに対するアプローチを検証し, 健全な英語を話すデータセットから事前学習したモデルを活用し, 大規模タスク固有のデータセットに対する注意深い事前学習がDP制約下で良好な精度を維持することを実証した。
包括的公正分析では、適切なプライバシーレベルでの性別バイアスは最小であったが、年齢に関する格差に対処する必要性が強調された。
以上の結果から,DPは音声障害検出におけるプライバシとユーティリティのバランスを保ちつつ,音声データに対するプライバシとフェアネスのトレードオフの独特な課題を浮き彫りにした。
これは、DP方法論の洗練と、実際のデプロイメントにおける多様な患者グループ間の公正性向上のための基盤を提供する。
関連論文リスト
- Towards Privacy-aware Mental Health AI Models: Advances, Challenges, and Opportunities [61.633126163190724]
精神病は、社会的、個人的コストがかなり高い広範囲で不安定な状態である。
近年の人工知能(AI)の進歩は、うつ病、不安障害、双極性障害、統合失調症、外傷後ストレス障害などの病態を認識し、対処するための大きな可能性を秘めている。
データセットやトレーニング済みモデルからの機密データ漏洩のリスクを含むプライバシー上の懸念は、これらのAIシステムを実際の臨床環境にデプロイする上で、依然として重要な障壁である。
論文 参考訳(メタデータ) (2025-02-01T15:10:02Z) - Privacy-Preserving Heterogeneous Federated Learning for Sensitive Healthcare Data [12.30620268528346]
我々は、AAFV(Abstention-Aware Federated Voting)と呼ばれる新しいフレームワークを提案する。
AAFVは、データのプライバシを同時に保護しながら、共同で機密的に異質なローカルモデルをトレーニングすることができる。
特に,提案手法では,不均一な局所モデルから高信頼投票を選択するために,しきい値に基づく棄権方式を採用している。
論文 参考訳(メタデータ) (2024-06-15T08:43:40Z) - The Impact of Speech Anonymization on Pathology and Its Limits [6.687980678659259]
本研究では,ドイツの複数の機関の2700人以上の話者を対象に,匿名化が病的スピーチに与える影響について検討した。
Dysarthria, Dysphonia, Cleft Lip and Palateなどの特定の疾患は最小限の効用変化を経験し, Dysglossiaはわずかに改善した。
論文 参考訳(メタデータ) (2024-04-11T18:06:35Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Private, fair and accurate: Training large-scale, privacy-preserving AI models in medical imaging [47.99192239793597]
我々は,AIモデルのプライバシ保護トレーニングが,非プライベートトレーニングと比較して精度と公平性に与える影響を評価した。
我々の研究は、実際の臨床データセットの困難な現実的な状況下では、診断深層学習モデルのプライバシー保護トレーニングは、優れた診断精度と公正さで可能であることを示しています。
論文 参考訳(メタデータ) (2023-02-03T09:49:13Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - The effect of speech pathology on automatic speaker verification -- a
large-scale study [6.468412158245622]
病的スピーチは 健康なスピーチに比べて プライバシー侵害のリスクが高まっています
ディスフォニアの成人は再識別のリスクが高まる一方、ディスフォニアのような症状は健康な話者に匹敵する結果をもたらす。
病理型間でデータをマージすると、EERは著しく低下し、自動話者検証における病理多様性の潜在的利点が示唆された。
論文 参考訳(メタデータ) (2022-04-13T15:17:00Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Anonymizing Data for Privacy-Preserving Federated Learning [3.3673553810697827]
我々は,フェデレートラーニングの文脈において,プライバシを提供するための最初の構文的アプローチを提案する。
当社のアプローチは,プライバシの保護レベルをサポートしながら,実用性やモデルの性能を最大化することを目的としている。
医療領域における2つの重要な課題について,100万人の患者の実世界電子健康データを用いて包括的実証評価を行った。
論文 参考訳(メタデータ) (2020-02-21T02:30:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。