論文の概要: Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model
- arxiv url: http://arxiv.org/abs/2104.08792v1
- Date: Sun, 18 Apr 2021 09:56:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 07:15:39.273902
- Title: Why Should I Trust a Model is Private? Using Shifts in Model Explanation
for Evaluating Privacy-Preserving Emotion Recognition Model
- Title(参考訳): なぜモデルがプライベートだと信じるべきなのか?
プライバシ保護感情認識モデル評価におけるモデル記述のシフトの利用
- Authors: Mimansa Jaiswal, Emily Mower Provost
- Abstract要約: 本稿では,モデルの有効性を評価するために解釈可能な手法を用いることに焦点をあてる。
プライバシーを守るための一般的な方法が、プライバシー保護の人間の認識とどのように一致しないかを示します。
評価者の傾きを評価し、特定のタスクのモデルを選択するためのクラウドソーシング実験を行います。
- 参考スコア(独自算出の注目度): 35.016050900061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Privacy preservation is a crucial component of any real-world application.
Yet, in applications relying on machine learning backends, this is challenging
because models often capture more than a designer may have envisioned,
resulting in the potential leakage of sensitive information. For example,
emotion recognition models are susceptible to learning patterns between the
target variable and other sensitive variables, patterns that can be maliciously
re-purposed to obtain protected information. In this paper, we concentrate on
using interpretable methods to evaluate a model's efficacy to preserve privacy
with respect to sensitive variables. We focus on saliency-based explanations,
explanations that highlight regions of the input text, which allows us to
understand how model explanations shift when models are trained to preserve
privacy. We show how certain commonly-used methods that seek to preserve
privacy might not align with human perception of privacy preservation. We also
show how some of these induce spurious correlations in the model between the
input and the primary as well as secondary task, even if the improvement in
evaluation metric is significant. Such correlations can hence lead to false
assurances about the perceived privacy of the model because especially when
used in cross corpus conditions. We conduct crowdsourcing experiments to
evaluate the inclination of the evaluators to choose a particular model for a
given task when model explanations are provided, and find that correlation of
interpretation differences with sociolinguistic biases can be used as a proxy
for user trust.
- Abstract(参考訳): プライバシー保護は、現実世界のアプリケーションにとって重要な要素です。
しかし、機械学習バックエンドに依存するアプリケーションでは、モデルがデザイナよりも多くをキャプチャすることが多く、センシティブな情報が漏洩する可能性があるため、これは難しい。
例えば、感情認識モデルは、対象変数と他の敏感な変数の間の学習パターンに影響を受けやすい。
本稿では,モデルの有効性を評価するために解釈可能な手法を使用することに集中し,機密性のある変数に対するプライバシの保護を行う。
モデル説明がプライバシを保護するようにトレーニングされた時にどのように変化するかを理解するために、私たちは、サリエンシーに基づく説明、入力テキストの領域を強調する説明に焦点を当てます。
プライバシーを守ろうとする一般的な方法が、プライバシーの保護に対する人間の認識とどのように一致しないかを示す。
また,評価基準の改善が重要であったとしても,入力とプライマリのモデルと二次的なタスクとの間に,これらの関係がいかにひらめきやすいかを示す。
このような相関は、特にクロスコーパス条件で使用されるため、モデルの認識されるプライバシーに関する誤った保証につながる可能性がある。
モデル説明が提供されたタスクに対して,特定のモデルを選択するための評価者の傾きを評価するためにクラウドソーシング実験を行い,解釈の違いと社会言語バイアスとの相関をユーザ信頼の指標として用いることができることを見出した。
関連論文リスト
- Deep Variational Privacy Funnel: General Modeling with Applications in
Face Recognition [3.351714665243138]
エンド・ツー・エンド・トレーニング・フレームワークを用いたプライバシー保護表現学習手法を開発した。
我々はこのモデルを最先端の顔認識システムに適用する。
論文 参考訳(メタデータ) (2024-01-26T11:32:53Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z) - The Influence of Dropout on Membership Inference in Differentially
Private Models [0.0]
異なるプライベートモデルは、モデルがトレーニングしたデータのプライバシ保護を目指している。
我々は、差分プライバシーのないモデルに対する会員推測攻撃を行う。
論文 参考訳(メタデータ) (2021-03-16T12:09:51Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。