論文の概要: MaSS: Multi-attribute Selective Suppression
- arxiv url: http://arxiv.org/abs/2210.09904v1
- Date: Tue, 18 Oct 2022 14:44:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 15:33:41.036998
- Title: MaSS: Multi-attribute Selective Suppression
- Title(参考訳): MASS:マルチ属性選択抑制
- Authors: Chun-Fu Chen, Shaohan Hu, Zhonghao Shi, Prateek Gulati, Bill Moriarty,
Marco Pistoia, Vincenzo Piuri, Pierangela Samarati
- Abstract要約: 本稿では,多属性選択抑制(Multi-Atribute Selective Suppression,MASS)を提案する。
MASSは2組のネットワーク間の対戦ゲームを通じてデータ修飾子を学習する。
本研究では,異なる領域の複数のデータセットを用いて提案手法の広範な評価を行った。
- 参考スコア(独自算出の注目度): 8.337285030303285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The recent rapid advances in machine learning technologies largely depend on
the vast richness of data available today, in terms of both the quantity and
the rich content contained within. For example, biometric data such as images
and voices could reveal people's attributes like age, gender, sentiment, and
origin, whereas location/motion data could be used to infer people's activity
levels, transportation modes, and life habits. Along with the new services and
applications enabled by such technological advances, various governmental
policies are put in place to regulate such data usage and protect people's
privacy and rights. As a result, data owners often opt for simple data
obfuscation (e.g., blur people's faces in images) or withholding data
altogether, which leads to severe data quality degradation and greatly limits
the data's potential utility.
Aiming for a sophisticated mechanism which gives data owners fine-grained
control while retaining the maximal degree of data utility, we propose
Multi-attribute Selective Suppression, or MaSS, a general framework for
performing precisely targeted data surgery to simultaneously suppress any
selected set of attributes while preserving the rest for downstream machine
learning tasks. MaSS learns a data modifier through adversarial games between
two sets of networks, where one is aimed at suppressing selected attributes,
and the other ensures the retention of the rest of the attributes via general
contrastive loss as well as explicit classification metrics. We carried out an
extensive evaluation of our proposed method using multiple datasets from
different domains including facial images, voice audio, and video clips, and
obtained promising results in MaSS' generalizability and capability of
suppressing targeted attributes without negatively affecting the data's
usability in other downstream ML tasks.
- Abstract(参考訳): 最近の機械学習技術の急速な進歩は、格納されている量とリッチコンテンツの両方の観点から、今日の利用可能なデータの膨大な豊かさに大きく依存している。
例えば、画像や音声などの生体データは、年齢、性別、感情、起源といった人々の属性を明らかにするのに対して、位置/動きデータは、人々の活動レベル、移動モード、生活習慣を推測するために用いられる。
このような技術的進歩によって実現される新しいサービスやアプリケーションとともに、これらのデータの使用を規制し、人々のプライバシーと権利を保護する様々な政府政策が設けられている。
その結果、データ所有者は、単純なデータ難読化(画像中の人の顔をぼかすなど)やデータを完全に保持することを選択し、データ品質の悪化を招き、データの潜在的な有用性を著しく制限する。
データの有用性を最大限に保ちながら、データ所有者にきめ細かな制御を与える高度なメカニズムを目指して、下流機械学習タスクを保存しつつ、選択された属性セットを同時に抑制する、正確に標的としたデータ手術を行う一般的なフレームワークであるマルチ属性選択抑圧(MASS)を提案する。
MASSは2組のネットワーク間の対戦ゲームを通じてデータ修飾器を学習し、一方は選択属性を抑えることを目的としており、他方は一般的なコントラスト損失と明示的な分類指標によって残りの属性の保持を保証する。
提案手法は,顔画像,音声音声,ビデオクリップなどの異なる領域の複数のデータセットを用いて広範に評価し,他のダウンストリームMLタスクにおけるデータのユーザビリティに悪影響を及ぼすことなく,MASSの一般化性とターゲット属性の抑制能力の有望な結果を得た。
関連論文リスト
- MaSS: Multi-attribute Selective Suppression for Utility-preserving Data Transformation from an Information-theoretic Perspective [10.009178591853058]
本稿では,このユーティリティ保護プライバシ保護問題に対する情報理論の形式的定義を提案する。
我々は、ターゲットデータセットからセンシティブな属性を抑えることができるデータ駆動学習可能なデータ変換フレームワークを設計する。
その結果,様々な構成下での手法の有効性と一般化性を示した。
論文 参考訳(メタデータ) (2024-05-23T18:35:46Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Delete My Account: Impact of Data Deletion on Machine Learning
Classifiers [0.0]
消去の権利は、ビッグデータや機械学習など、さまざまな分野に潜在的に影響する可能性がある。
本稿では,機械学習モデルの性能に及ぼす消去権の利用の影響を詳細に分析する。
論文 参考訳(メタデータ) (2023-11-17T08:23:17Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Towards Generalizable Data Protection With Transferable Unlearnable
Examples [50.628011208660645]
本稿では、転送不可能な例を生成することによって、新しい一般化可能なデータ保護手法を提案する。
私たちの知る限りでは、これはデータ分散の観点からデータのプライバシを調べる最初のソリューションです。
論文 参考訳(メタデータ) (2023-05-18T04:17:01Z) - Uncertainty-Autoencoder-Based Privacy and Utility Preserving Data Type
Conscious Transformation [3.7315964084413173]
プライバシ・ユーティリティのトレードオフ問題に対処する逆学習フレームワークを2つの条件で提案する。
データタイプの無知な条件下では、プライバシメカニズムは、正確に1つのクラスを表す、カテゴリ機能の1ホットエンコーディングを提供する。
データ型認識条件下では、分類変数は各クラスごとに1つのスコアの集合で表される。
論文 参考訳(メタデータ) (2022-05-04T08:40:15Z) - Towards a Data Privacy-Predictive Performance Trade-off [2.580765958706854]
分類タスクにおけるデータプライバシと予測性能のトレードオフの存在を評価する。
従来の文献とは異なり、プライバシーのレベルが高ければ高いほど、予測性能が向上することを確認した。
論文 参考訳(メタデータ) (2022-01-13T21:48:51Z) - Selecting the suitable resampling strategy for imbalanced data
classification regarding dataset properties [62.997667081978825]
医学、情報検索、サイバーセキュリティ、ソーシャルメディアなどの多くのアプリケーションドメインでは、分類モデルの導入に使用されるデータセットは、各クラスのインスタンスの不平等な分布を持つことが多い。
この状況は不均衡データ分類と呼ばれ、少数民族の例では予測性能が低い。
オーバーサンプリングとアンダーサンプリングの技術は、各クラスの例の数とバランスをとることでこの問題に対処する、よく知られた戦略である。
論文 参考訳(メタデータ) (2021-12-15T18:56:39Z) - Adversarial Knowledge Transfer from Unlabeled Data [62.97253639100014]
本稿では,インターネット規模の未ラベルデータから知識を伝達し,分類器の性能を向上させるための新しいAdversarial Knowledge Transferフレームワークを提案する。
我々の手法の重要な新しい側面は、ラベル付けされていないソースデータは、ラベル付けされたターゲットデータと異なるクラスであることができ、個別のプリテキストタスクを定義する必要がないことである。
論文 参考訳(メタデータ) (2020-08-13T08:04:27Z) - Differential Privacy of Hierarchical Census Data: An Optimization
Approach [53.29035917495491]
国勢調査局(Census Bureaus)は、個人に関する機密情報を明らかにすることなく、大人口に関する社会経済的データをまとめて公開することに興味を持っている。
最近の出来事では、これらの組織が直面しているプライバシー上の課題がいくつか特定されている。
本稿では,階層的な個人数を解放する新たな差分プライバシ機構を提案する。
論文 参考訳(メタデータ) (2020-06-28T18:19:55Z) - Differentially Private M-band Wavelet-Based Mechanisms in Machine
Learning Environments [4.629162607975834]
データにノイズを埋め込む離散Mバンドウェーブレット変換を用いた3つのプライバシ保護機構を開発する。
本機構は,機械学習環境における統計的解析により,差分プライバシーと学習可能性の両方を維持可能であることを示す。
論文 参考訳(メタデータ) (2019-12-30T18:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。