論文の概要: Scenario of Use Scheme: Threat Model Specification for Speaker Privacy Protection in the Medical Domain
- arxiv url: http://arxiv.org/abs/2409.16106v1
- Date: Tue, 24 Sep 2024 14:07:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 05:36:51.253502
- Title: Scenario of Use Scheme: Threat Model Specification for Speaker Privacy Protection in the Medical Domain
- Title(参考訳): 医療領域における話者プライバシ保護のための脅威モデル仕様
- Authors: Mehtab Ur Rahman, Martha Larson, Louis ten Bosch, Cristian Tejedor-García,
- Abstract要約: 本稿では,話者のプライバシを守らなければならない相手を特徴付けるアタッカーモデルと,その防衛を規定するプロテクタモデルとを組み込んだユースケースシナリオ・オブ・ユース・スキームを提案する。
本稿では,特定のシナリオ・オブ・ユース(Senario of Use)の具体例と,パーキンソン検出の実用性を維持しつつ,ジェンダー推論攻撃から話者データを保護するための一連の実験について述べる。
- 参考スコア(独自算出の注目度): 5.40729975786985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech recordings are being more frequently used to detect and monitor disease, leading to privacy concerns. Beyond cryptography, protection of speech can be addressed by approaches, such as perturbation, disentanglement, and re-synthesis, that eliminate sensitive information of the speaker, leaving the information necessary for medical analysis purposes. In order for such privacy protective approaches to be developed, clear and systematic specifications of assumptions concerning medical settings and the needs of medical professionals are necessary. In this paper, we propose a Scenario of Use Scheme that incorporates an Attacker Model, which characterizes the adversary against whom the speaker's privacy must be defended, and a Protector Model, which specifies the defense. We discuss the connection of the scheme with previous work on speech privacy. Finally, we present a concrete example of a specified Scenario of Use and a set of experiments about protecting speaker data against gender inference attacks while maintaining utility for Parkinson's detection.
- Abstract(参考訳): 音声記録は病気を検知し、監視するために頻繁に使われており、プライバシー上の懸念につながっている。
暗号以外にも、言論の保護は、摂動、ゆがみ、再合成といったアプローチによって対処でき、それによって話者の機密情報を排除し、医療分析の目的に必要な情報を残すことができる。
このようなプライバシ保護アプローチを開発するためには、医療設定や医療専門家のニーズに関する前提の明確かつ体系的な仕様が必要である。
本稿では,話者のプライバシを守らなければならない相手を特徴付けるアタッカーモデルと,その防御を規定するプロテクタモデルとを組み込んだユースケースシナリオ・オブ・ユース・スキームを提案する。
提案手法と過去の音声のプライバシーに関する研究との関係について論じる。
最後に、特定のシナリオ・オブ・ユース(Senario of Use)の具体例と、パーキンソンの検出の実用性を維持しつつ、ジェンダー推論攻撃から話者データを保護するための一連の実験を示す。
関連論文リスト
- A Benchmark for Multi-speaker Anonymization [9.990701310620368]
本稿では,実世界のアプリケーションを対象としたマルチ話者匿名化ベンチマークを提案する。
カスケードシステムは、話者ダイアリゼーションを使用して、各話者の音声を集約し、話者匿名化を行い、話者のプライバシーを隠蔽し、音声コンテンツを保存する。
非オーバーラップシミュレーションと実世界のデータセットによる実験は、マルチスピーカー匿名化システムの有効性を実証している。
論文 参考訳(メタデータ) (2024-07-08T04:48:43Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Privacy-preserving and Privacy-attacking Approaches for Speech and Audio -- A Survey [7.88857172307008]
本稿では,音声・音声のプライバシー保護・プライバシー侵害対策の既存手法について検討する。
攻撃シナリオと防御シナリオをいくつかのカテゴリに分類し,各アプローチの詳細な分析を行う。
我々の調査によると、ニューラルネットワークに基づく音声制御デバイスは、本質的に特定の種類の攻撃の影響を受けやすい。
論文 参考訳(メタデータ) (2023-09-26T17:31:35Z) - Diff-Privacy: Diffusion-based Face Privacy Protection [58.1021066224765]
本稿では,Diff-Privacyと呼ばれる拡散モデルに基づく顔のプライバシー保護手法を提案する。
具体的には、提案したマルチスケール画像インバージョンモジュール(MSI)をトレーニングし、元の画像のSDMフォーマット条件付き埋め込みのセットを得る。
本研究は,条件付き埋め込みに基づいて,組込みスケジューリング戦略を設計し,デノナイズプロセス中に異なるエネルギー関数を構築し,匿名化と視覚的アイデンティティ情報隠蔽を実現する。
論文 参考訳(メタデータ) (2023-09-11T09:26:07Z) - Anonymizing Speech with Generative Adversarial Networks to Preserve
Speaker Privacy [22.84840887071428]
話者匿名化は、音声録音における音声を変化させることで話者の同一性を隠蔽することを目的としている。
これは一般的に、個人の保護とダウンストリームアプリケーションにおけるデータのユーザビリティとの間の、プライバシーとユーティリティのトレードオフが伴う。
本稿では,ワッサースタイン距離をコスト関数として生成した逆数ネットワークを用いて話者埋め込みを生成することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-10-13T13:12:42Z) - Differentially Private Speaker Anonymization [44.90119821614047]
実世界の発話を共有することが、音声ベースのサービスのトレーニングと展開の鍵となる。
話者匿名化は、言語的および韻律的属性をそのまま残しながら、発話から話者情報を除去することを目的としている。
言語的属性と韻律的属性は依然として話者情報を含んでいる。
論文 参考訳(メタデータ) (2022-02-23T23:20:30Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Defending Medical Image Diagnostics against Privacy Attacks using
Generative Methods [10.504951891644474]
生成敵対ネットワーク(GAN)を用いたプライバシー防御プロトコルの開発と評価を行います。
本研究では, 糖尿病性網膜症に用いる網膜診断AIについて, 個人情報が漏洩するリスクがあることを示す。
論文 参考訳(メタデータ) (2021-03-04T15:02:57Z) - Privacy-preserving medical image analysis [53.4844489668116]
医用画像におけるプライバシ保護機械学習(PPML)のためのソフトウェアフレームワークであるPriMIAを提案する。
集合型学習モデルの分類性能は,未発見データセットの人間専門家と比較して有意に良好である。
グラデーションベースのモデル反転攻撃に対するフレームワークのセキュリティを実証的に評価する。
論文 参考訳(メタデータ) (2020-12-10T13:56:00Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。