論文の概要: Generalizing Fairness: Discovery and Mitigation of Unknown Sensitive
Attributes
- arxiv url: http://arxiv.org/abs/2107.13625v1
- Date: Wed, 28 Jul 2021 20:18:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:30:03.238429
- Title: Generalizing Fairness: Discovery and Mitigation of Unknown Sensitive
Attributes
- Title(参考訳): フェアネスの一般化:未知の感度属性の発見と緩和
- Authors: William Paul, Philippe Burlina
- Abstract要約: 本稿では,特定のデータセットから個々のセマンティックセンシティブな要因を分離し,その特徴付けを行う手法について検討する。
また、通常、社会的に関係のある要素にのみ対応し、AIの脱感作に対処するフェアネスの是正も行います。
道路標識 (GTSRB) と顔画像 (CelebA) のデータセットを用いた実験では, この方式を用いることの約束を示す。
- 参考スコア(独自算出の注目度): 5.665283675533071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: When deploying artificial intelligence (AI) in the real world, being able to
trust the operation of the AI by characterizing how it performs is an
ever-present and important topic. An important and still largely unexplored
task in this characterization is determining major factors within the real
world that affect the AI's behavior, such as weather conditions or lighting,
and either a) being able to give justification for why it may have failed or b)
eliminating the influence the factor has. Determining these sensitive factors
heavily relies on collected data that is diverse enough to cover numerous
combinations of these factors, which becomes more onerous when having many
potential sensitive factors or operating in complex environments. This paper
investigates methods that discover and separate out individual semantic
sensitive factors from a given dataset to conduct this characterization as well
as addressing mitigation of these factors' sensitivity. We also broaden
remediation of fairness, which normally only addresses socially relevant
factors, and widen it to deal with the desensitization of AI with regard to all
possible aspects of variation in the domain. The proposed methods which
discover these major factors reduce the potentially onerous demands of
collecting a sufficiently diverse dataset. In experiments using the road sign
(GTSRB) and facial imagery (CelebA) datasets, we show the promise of using this
scheme to perform this characterization and remediation and demonstrate that
our approach outperforms state of the art approaches.
- Abstract(参考訳): 人工知能(AI)を現実世界に展開する場合、AIがどのように機能するかを特徴付けることによって、AIの操作を信頼することができることは、常在的で重要なトピックである。
この特徴付けにおいて重要かつほとんど未解決のタスクは、天候条件や照明など、aiの行動に影響する現実世界の主要な要因を決定することであり、a)それがなぜ失敗したのかを正当化することができるか、b)その要因が持つ影響を排除することである。
これらのセンシティブな要因を決定するには、これらの要因の多数の組み合わせをカバーするのに十分な量の収集されたデータに大きく依存する。
本稿では,与えられたデータセットから個々のセマンティクスに敏感な要因を発見し分離し,その特徴付けを行う手法と,これらの要因の感度の緩和について検討する。
我々はまた、通常、社会的に関係のある要因にのみ対処する公正性の改善を拡大し、ドメインのあらゆる面でのAIの脱感作に対処するように拡大します。
これらの主要な要因を発見するための提案手法は、十分に多様なデータセットを収集する潜在的に厄介な要求を減らす。
道路標識 (GTSRB) と顔画像 (CelebA) データセットを用いた実験では, この特徴と修復を行うためにこの手法を用いることが約束され, われわれのアプローチが技術アプローチの状況より優れていることを示す。
関連論文リスト
- Towards Understanding Human Emotional Fluctuations with Sparse Check-In Data [2.8623940003518156]
データスパシティは、さまざまなドメインにわたるAIツールのパワーを制限する重要な課題である。
本稿では,ユーザ中心のフィードバックに基づく学習を統合する新しい確率的フレームワークを提案する。
64のオプションの中で、ユーザの状態を6割の精度で予測できる。
論文 参考訳(メタデータ) (2024-09-10T21:00:33Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - C-Disentanglement: Discovering Causally-Independent Generative Factors
under an Inductive Bias of Confounder [35.09708249850816]
我々は,共同設立者の帰納的バイアスを明示する最初のフレームワークである,C-Disentanglement(C-Disentanglement)というフレームワークを紹介した。
我々は、合成データセットと実世界のデータセットの両方について広範な実験を行う。
論文 参考訳(メタデータ) (2023-10-26T11:44:42Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - Understanding Robust Overfitting from the Feature Generalization Perspective [61.770805867606796]
逆行訓練(AT)は、逆行摂動を自然データに組み込むことで、堅牢なニューラルネットワークを構築する。
これはロバストオーバーフィッティング(RO)の問題に悩まされ、モデルのロバスト性を著しく損なう。
本稿では,新しい特徴一般化の観点からROを考察する。
論文 参考訳(メタデータ) (2023-10-01T07:57:03Z) - A Sequentially Fair Mechanism for Multiple Sensitive Attributes [0.46040036610482665]
アルゴリズムフェアネスの標準的なユースケースでは、感度変数と対応するスコアの関係を排除することが目標である。
センシティブな特徴の集合にまたがって、段階的に公平性を達成できるシーケンシャルなフレームワークを提案する。
当社のアプローチは、リスクと不公平の間のトレードオフを緩和するフレームワークを包含することで、公平性をシームレスに拡張します。
論文 参考訳(メタデータ) (2023-09-12T22:31:57Z) - Synthetic-to-Real Domain Adaptation for Action Recognition: A Dataset and Baseline Performances [76.34037366117234]
ロボット制御ジェスチャー(RoCoG-v2)と呼ばれる新しいデータセットを導入する。
データセットは7つのジェスチャークラスの実ビデオと合成ビデオの両方で構成されている。
我々は,最先端の行動認識とドメイン適応アルゴリズムを用いて結果を示す。
論文 参考訳(メタデータ) (2023-03-17T23:23:55Z) - Interventional Causal Representation Learning [75.18055152115586]
因果表現学習は、低レベルの感覚データから高レベルの潜伏因子を抽出しようとする。
介入データは因果表現学習を促進するか?
介入データは、しばしば潜伏因子の支援の幾何学的シグネチャを持つことを示す。
論文 参考訳(メタデータ) (2022-09-24T04:59:03Z) - Trying to Outrun Causality with Machine Learning: Limitations of Model
Explainability Techniques for Identifying Predictive Variables [7.106986689736828]
機械学習のアルゴリズムは、見た目ほど柔軟性がなく、データの根底にある因果構造に驚くほど敏感であることを示す。
我々は、重要な変数のデータを探索したい研究者のために、いくつかの代替のレコメンデーションを提供する。
論文 参考訳(メタデータ) (2022-02-20T17:48:54Z) - Towards Unbiased Visual Emotion Recognition via Causal Intervention [63.74095927462]
本稿では,データセットバイアスによる負の効果を軽減するために,新しい感情認識ネットワーク(IERN)を提案する。
IERNの有効性を検証する一連の設計されたテストと、3つの感情ベンチマークの実験は、IERNが他の最先端のアプローチよりも優れていることを示した。
論文 参考訳(メタデータ) (2021-07-26T10:40:59Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。