論文の概要: Statistical discrimination in learning agents
- arxiv url: http://arxiv.org/abs/2110.11404v1
- Date: Thu, 21 Oct 2021 18:28:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 04:47:55.661427
- Title: Statistical discrimination in learning agents
- Title(参考訳): 学習エージェントの統計的識別
- Authors: Edgar A. Du\'e\~nez-Guzm\'an, Kevin R. McKee, Yiran Mao, Ben Coppin,
Silvia Chiappa, Alexander Sasha Vezhnevets, Michiel A. Bakker, Yoram
Bachrach, Suzanne Sadedin, William Isaac, Karl Tuyls, Joel Z. Leibo
- Abstract要約: 統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
- 参考スコア(独自算出の注目度): 64.78141757063142
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Undesired bias afflicts both human and algorithmic decision making, and may
be especially prevalent when information processing trade-offs incentivize the
use of heuristics. One primary example is \textit{statistical discrimination}
-- selecting social partners based not on their underlying attributes, but on
readily perceptible characteristics that covary with their suitability for the
task at hand. We present a theoretical model to examine how information
processing influences statistical discrimination and test its predictions using
multi-agent reinforcement learning with various agent architectures in a
partner choice-based social dilemma. As predicted, statistical discrimination
emerges in agent policies as a function of both the bias in the training
population and of agent architecture. All agents showed substantial statistical
discrimination, defaulting to using the readily available correlates instead of
the outcome relevant features. We show that less discrimination emerges with
agents that use recurrent neural networks, and when their training environment
has less bias. However, all agent algorithms we tried still exhibited
substantial bias after learning in biased training populations.
- Abstract(参考訳): 望ましくないバイアスは人的およびアルゴリズム的な意思決定の両方に影響を及ぼし、情報処理のトレードオフがヒューリスティックスの使用を動機付けると特に顕著になる。
主な例の1つが \textit{statistical discrimination} -- 基礎となる属性ではなく、目の前のタスクに適合する容易に認識可能な特性に基づいて、ソーシャルパートナーを選択する。
本稿では,情報処理が統計的識別にどのように影響するかを理論的に検討し,パートナー選択に基づく社会的ジレンマの多エージェント強化学習を用いて検証する。
予測されたように、エージェントポリシーでは、トレーニング人口のバイアスとエージェントアーキテクチャの両方の関数として統計的差別が出現する。
すべてのエージェントは実質的な統計的識別を示し、結果に関連する特徴ではなく、容易に利用可能な相関関係の使用をデフォルトとした。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
しかし,全てのエージェントアルゴリズムは,偏りのある訓練集団で学習した後も有意な偏りを示した。
関連論文リスト
- MABR: A Multilayer Adversarial Bias Removal Approach Without Prior Bias Knowledge [6.208151505901749]
実世界のデータに基づいてトレーニングされたモデルは、しばしば既存の社会的バイアスを反映し、悪化させる。
本稿では,従来のバイアス型知識とは独立して機能する,新たな対人訓練戦略を提案する。
本手法は,人口統計学的アノテーションを必要とせずに,社会的バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-08-10T09:11:01Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Information-Theoretic Bias Assessment Of Learned Representations Of
Pretrained Face Recognition [18.07966649678408]
保護された人口統計属性に対するバイアスの度合いを特定するために,情報理論,独立バイアス評価指標を提案する。
我々の測定基準は、分類精度に依存する他の方法と異なり、浅いネットワークを用いて予測される保護属性の予測ラベルと地上の真実の差を調べる。
論文 参考訳(メタデータ) (2021-11-08T17:41:17Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Unfairness Discovery and Prevention For Few-Shot Regression [9.95899391250129]
歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
論文 参考訳(メタデータ) (2020-09-23T22:34:06Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。