論文の概要: Evaluating Trade-offs in Computer Vision Between Attribute Privacy,
Fairness and Utility
- arxiv url: http://arxiv.org/abs/2302.07917v1
- Date: Wed, 15 Feb 2023 19:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:55:25.264506
- Title: Evaluating Trade-offs in Computer Vision Between Attribute Privacy,
Fairness and Utility
- Title(参考訳): 属性プライバシ,フェアネス,ユーティリティ間のコンピュータビジョンにおけるトレードオフの評価
- Authors: William Paul, Philip Mathew, Fady Alajaji, Philippe Burlina
- Abstract要約: 本稿では,コンピュータビジョンにおけるユーティリティ,フェアネス,属性プライバシのトレードオフについて検討する。
好みの異なる様々なモデルを作成するために、フェアネスとプライバシに関連する属性に干渉する逆法を用いる。
- 参考スコア(独自算出の注目度): 9.929258066313627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates to what degree and magnitude tradeoffs exist between
utility, fairness and attribute privacy in computer vision. Regarding privacy,
we look at this important problem specifically in the context of attribute
inference attacks, a less addressed form of privacy. To create a variety of
models with different preferences, we use adversarial methods to intervene on
attributes relating to fairness and privacy. We see that that certain tradeoffs
exist between fairness and utility, privacy and utility, and between privacy
and fairness. The results also show that those tradeoffs and interactions are
more complex and nonlinear between the three goals than intuition would
suggest.
- Abstract(参考訳): 本稿では,コンピュータビジョンにおける有用性,公平性,属性プライバシのトレードオフについて検討する。
プライバシに関しては、特に属性推論攻撃という、扱いにくいプライバシ形式のコンテキストにおいて、この重要な問題に目を向けます。
好みの異なる様々なモデルを作成するために、フェアネスとプライバシに関連する属性に干渉する逆法を用いる。
フェアネスとユーティリティ、プライバシとユーティリティ、プライバシとフェアネスの間には、ある種のトレードオフが存在することが分かっています。
結果は、これらのトレードオフと相互作用は直観が示唆するよりも複雑で非線形であることを示している。
関連論文リスト
- Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Holistic Survey of Privacy and Fairness in Machine Learning [10.399352534861292]
プライバシと公正性は、責任ある人工知能(AI)と信頼できる機械学習(ML)の重要な柱である
かなりの関心があるにもかかわらず、これらの2つの目的がMLモデルにどのように同時に統合できるかを解明するために、より詳細な研究が必要である。
我々は、教師なし、教師なし、半教師なし、強化学習を含む、MLにおけるプライバシーと公正性の徹底的なレビューを提供する。
論文 参考訳(メタデータ) (2023-07-28T23:39:29Z) - Privacy and Fairness in Federated Learning: on the Perspective of
Trade-off [58.204074436129716]
フェデレートラーニング(FL)は近年ホットな話題となっている。
2つの重要な倫理的概念として、プライバシと公平性の相互作用は比較的研究されていない。
論文 参考訳(メタデータ) (2023-06-25T04:38:19Z) - On the Alignment of Group Fairness with Attribute Privacy [1.6574413179773757]
グループフェアネスとプライバシは、信頼できる機械学習モデルを設計する上での基本的な側面である。
ブラックボックスの設定において、グループフェアネスと属性プライバシという特定のプライバシー概念との整合性を初めて示す。
論文 参考訳(メタデータ) (2022-11-18T13:00:34Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。