論文の概要: Human intuition as a defense against attribute inference
- arxiv url: http://arxiv.org/abs/2304.11853v1
- Date: Mon, 24 Apr 2023 06:54:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 15:58:14.209846
- Title: Human intuition as a defense against attribute inference
- Title(参考訳): 属性推定に対する防御としての人間の直感
- Authors: Marcin Waniek, Navya Suri, Abdullah Zameek, Bedoor AlShebli, Talal
Rahwan
- Abstract要約: 属性推論は、プライバシーに対する大きな脅威となっている。
この脅威に対処する1つの方法は、属性推論からプライベート情報を隠蔽するために、公開データを戦略的に修正することである。
我々は、このタスクを実行する人々の能力を評価し、この目的のために設計されたアルゴリズムと比較する。
- 参考スコア(独自算出の注目度): 4.916067949075847
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attribute inference - the process of analyzing publicly available data in
order to uncover hidden information - has become a major threat to privacy,
given the recent technological leap in machine learning. One way to tackle this
threat is to strategically modify one's publicly available data in order to
keep one's private information hidden from attribute inference. We evaluate
people's ability to perform this task, and compare it against algorithms
designed for this purpose. We focus on three attributes: the gender of the
author of a piece of text, the country in which a set of photos was taken, and
the link missing from a social network. For each of these attributes, we find
that people's effectiveness is inferior to that of AI, especially when it comes
to hiding the attribute in question. Moreover, when people are asked to modify
the publicly available information in order to hide these attributes, they are
less likely to make high-impact modifications compared to AI. This suggests
that people are unable to recognize the aspects of the data that are critical
to an inference algorithm. Taken together, our findings highlight the
limitations of relying on human intuition to protect privacy in the age of AI,
and emphasize the need for algorithmic support to protect private information
from attribute inference.
- Abstract(参考訳): 属性推論 - 隠された情報を明らかにするために公開データを解析するプロセス - は、最近の機械学習の技術的飛躍を考えると、プライバシに対する大きな脅威となっている。
この脅威に対処するひとつの方法は、属性推論からプライベート情報を隠蔽するために、公開データを戦略的に修正することだ。
我々は、このタスクを実行する人々の能力を評価し、この目的のために設計されたアルゴリズムと比較する。
我々は、テキストの著者の性別、一連の写真が撮影された国、ソーシャルネットワークから欠落したリンクの3つの属性に焦点を当てた。
これらの属性のそれぞれについて、特に問題となる属性を隠蔽する場合には、AIのそれよりも人々の効率性が劣っていることが分かる。
さらに、これらの属性を隠すために公開情報を変更するように求められた場合、aiと比較して高いインパクトを持つ修正を行う可能性は低い。
これは、推論アルゴリズムに不可欠なデータの側面を認識することができないことを示唆している。
分析の結果は、AI時代のプライバシーを守るために人間の直感に頼ることの限界を強調し、属性推論から個人情報を保護するためのアルゴリズムサポートの必要性を強調した。
関連論文リスト
- IDT: Dual-Task Adversarial Attacks for Privacy Protection [8.312362092693377]
プライバシを保護するには、センシティブな属性を検出できないモデル内の表現を使用する必要がある。
補助的および解釈可能なモデルによる予測を分析し,どのトークンが変更に重要かを識別する手法であるIDTを提案する。
我々は、異なるタスクに適したNLPのための異なるデータセットを評価する。
論文 参考訳(メタデータ) (2024-06-28T04:14:35Z) - TeD-SPAD: Temporal Distinctiveness for Self-supervised
Privacy-preservation for video Anomaly Detection [59.04634695294402]
人間の監視のないビデオ異常検出(VAD)は複雑なコンピュータビジョンタスクである。
VADのプライバシー漏洩により、モデルは人々の個人情報に関連する不必要なバイアスを拾い上げ、増幅することができる。
本稿では,視覚的プライベート情報を自己管理的に破壊する,プライバシーに配慮したビデオ異常検出フレームワークTeD-SPADを提案する。
論文 参考訳(メタデータ) (2023-08-21T22:42:55Z) - Adversary for Social Good: Leveraging Adversarial Attacks to Protect
Personal Attribute Privacy [14.395031313422214]
我々は、機械学習の固有の脆弱性を敵攻撃に利用し、Adv4SGと呼ばれるソーシャルグッドのための新しいテキストスペース・アタックを設計する。
提案手法は,異なる属性設定に対して計算コストの少ない推論精度を効果的に劣化させ,推論攻撃の影響を軽減し,ユーザ属性のプライバシ保護において高い性能を実現する。
論文 参考訳(メタデータ) (2023-06-04T21:40:23Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Training privacy-preserving video analytics pipelines by suppressing
features that reveal information about private attributes [40.31692020706419]
我々は、デプロイされたディープニューラルネットワークによって抽出された機能にアクセス可能な敵を検討し、これらの機能を使用してプライベート属性を予測する。
我々は,個人属性を正確に予測し難い特徴の抽出を促す混乱損失を用いて,ネットワークのトレーニングを変更する。
その結果、提案したPrivateNetは、元のネットワークと比較して、最先端の感情認識の個人情報の漏洩を2.88%、年齢グループで13.06%削減できることがわかった。
論文 参考訳(メタデータ) (2022-03-05T01:31:07Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。