論文の概要: Adversarial representation learning for private speech generation
- arxiv url: http://arxiv.org/abs/2006.09114v2
- Date: Wed, 17 Jun 2020 09:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-20 21:50:23.489857
- Title: Adversarial representation learning for private speech generation
- Title(参考訳): 個人音声生成のための対立表現学習
- Authors: David Ericsson, Adam \"Ostberg, Edvin Listo Zec, John Martinsson, Olof
Mogren
- Abstract要約: 本稿では、音声データ中の特定の感度属性を難読化することを学ぶGAN(Generative Adversarial Network)に基づくモデルを提案する。
我々は、発話の意味を保ちながら、データに機密情報を隠蔽することを学ぶモデルを訓練する。
実用性やリアリズムを維持するために,新たなデータを生成することによって,性別などのセンシティブな情報を隠蔽することができることを示す。
- 参考スコア(独自算出の注目度): 0.5924780594614675
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As more and more data is collected in various settings across organizations,
companies, and countries, there has been an increase in the demand of user
privacy. Developing privacy preserving methods for data analytics is thus an
important area of research. In this work we present a model based on generative
adversarial networks (GANs) that learns to obfuscate specific sensitive
attributes in speech data. We train a model that learns to hide sensitive
information in the data, while preserving the meaning in the utterance. The
model is trained in two steps: first to filter sensitive information in the
spectrogram domain, and then to generate new and private information
independent of the filtered one. The model is based on a U-Net CNN that takes
mel-spectrograms as input. A MelGAN is used to invert the spectrograms back to
raw audio waveforms. We show that it is possible to hide sensitive information
such as gender by generating new data, trained adversarially to maintain
utility and realism.
- Abstract(参考訳): 組織や企業、国によってさまざまな設定で収集されるデータが増えていくにつれ、ユーザのプライバシの需要が高まっている。
したがって、データ分析のためのプライバシー保護手法の開発は重要な研究分野である。
本研究では,音声データ中の特定の感度属性を難読化するGAN(Generative Adversarial Network)に基づくモデルを提案する。
我々は、発話の意味を保ちながら、データに機密情報を隠蔽することを学ぶモデルを訓練する。
モデルは2つのステップで訓練される: まず、スペクトログラムドメインで機密情報をフィルタリングし、その後、フィルタされた情報とは独立に、新しくプライベートな情報を生成する。
このモデルは、メルスペクトルを入力とするU-Net CNNに基づいている。
MelGANは、スペクトルを生のオーディオ波形に戻すために使用される。
実用性やリアリズムを維持するために,新たなデータを生成することによって,性別などのセンシティブな情報を隠蔽することができることを示す。
関連論文リスト
- REVS: Unlearning Sensitive Information in Language Models via Rank Editing in the Vocabulary Space [35.61862064581971]
大規模言語モデル(LLM)は、トレーニングデータに見られる機密または個人識別可能な情報(PII)を不注意に記憶し、希釈するリスクがある。
LLMから未学習のセンシティブな情報を抽出する新しいモデル編集手法であるREVSを提案する。
論文 参考訳(メタデータ) (2024-06-13T17:02:32Z) - Differentially Private Synthetic Data Generation via
Lipschitz-Regularised Variational Autoencoders [3.7463972693041274]
生成モデルが個々のトレーニング記録の多くの詳細を記憶する傾向があることは、しばしば見落とされがちである。
本稿では,生成モデルにおける本質を直接活用するデータ生成手法について検討する。
論文 参考訳(メタデータ) (2023-04-22T07:24:56Z) - You Are What You Write: Preserving Privacy in the Era of Large Language
Models [2.3431670397288005]
本稿では,様々な人気モデルを用いて,事前学習された表現に符号化された個人情報の範囲について,実証的研究を行う。
モデルの複雑さ,事前学習に使用するデータ量,およびデータ漏洩との間には,正の相関関係を示す。
論文 参考訳(メタデータ) (2022-04-20T11:12:53Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z) - Protecting gender and identity with disentangled speech representations [49.00162808063399]
音声における性情報保護は,話者識別情報のモデル化よりも効果的であることを示す。
性別情報をエンコードし、2つの敏感な生体識別子を解読する新しい方法を提示する。
論文 参考訳(メタデータ) (2021-04-22T13:31:41Z) - Anonymizing Sensor Data on the Edge: A Representation Learning and
Transformation Approach [4.920145245773581]
本稿では,データ難読化に有用な低次元表現を学習することで,ユーティリティとプライバシ損失のトレードオフを検討することを目的とする。
本稿では,時系列データを合成するための変分オートエンコーダの潜時空間における決定論的および確率的変換を提案する。
リソース制約のあるエッジデバイス上で,データをリアルタイムに匿名化できることを示す。
論文 参考訳(メタデータ) (2020-11-16T22:32:30Z) - Privacy Adversarial Network: Representation Learning for Mobile Data
Privacy [33.75500773909694]
モバイルユーザのためのクラウドベースのインテリジェントサービスの増加は、プロバイダに送信するユーザデータを要求している。
以前の作業では、例えばノイズを追加して識別情報を削除したり、匿名化された特徴などのデータから抽出された表現を送信したりするといった、データの難読化が行われていた。
私たちは、敵対的な学習を活用して、プライバシとユーティリティのバランスを改善する。
論文 参考訳(メタデータ) (2020-06-08T09:42:04Z) - TIPRDC: Task-Independent Privacy-Respecting Data Crowdsourcing Framework
for Deep Learning with Anonymized Intermediate Representations [49.20701800683092]
本稿では,匿名化中間表現を用いたタスク非依存型プライバシ参照データクラウドソーシングフレームワークTIPRDCを提案する。
このフレームワークの目的は、中間表現からプライバシー情報を隠蔽できる機能抽出器を学習することであり、データコレクターの生データに埋め込まれた元の情報を最大限に保持し、未知の学習タスクを達成することである。
論文 参考訳(メタデータ) (2020-05-23T06:21:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。