論文の概要: Bias in Multimodal AI: Testbed for Fair Automatic Recruitment
- arxiv url: http://arxiv.org/abs/2004.07173v1
- Date: Wed, 15 Apr 2020 15:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 03:50:23.277757
- Title: Bias in Multimodal AI: Testbed for Fair Automatic Recruitment
- Title(参考訳): マルチモーダルAIにおけるバイアス: 公正な自動リクルートのためのテストベッド
- Authors: Alejandro Pe\~na, Ignacio Serna, Aythami Morales, and Julian Fierrez
- Abstract要約: 異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
- 参考スコア(独自算出の注目度): 73.85525896663371
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The presence of decision-making algorithms in society is rapidly increasing
nowadays, while concerns about their transparency and the possibility of these
algorithms becoming new sources of discrimination are arising. In fact, many
relevant automated systems have been shown to make decisions based on sensitive
information or discriminate certain social groups (e.g. certain biometric
systems for person recognition). With the aim of studying how current
multimodal algorithms based on heterogeneous sources of information are
affected by sensitive elements and inner biases in the data, we propose a
fictitious automated recruitment testbed: FairCVtest. We train automatic
recruitment algorithms using a set of multimodal synthetic profiles consciously
scored with gender and racial biases. FairCVtest shows the capacity of the
Artificial Intelligence (AI) behind such recruitment tool to extract sensitive
information from unstructured data, and exploit it in combination to data
biases in undesirable (unfair) ways. Finally, we present a list of recent works
developing techniques capable of removing sensitive information from the
decision-making process of deep learning architectures. We have used one of
these algorithms (SensitiveNets) to experiment discrimination-aware learning
for the elimination of sensitive information in our multimodal AI framework.
Our methodology and results show how to generate fairer AI-based tools in
general, and in particular fairer automated recruitment systems.
- Abstract(参考訳): 社会における意思決定アルゴリズムの存在は急速に増加しており、その透明性とこれらのアルゴリズムが新たな差別源となる可能性への懸念が生まれている。
実際、関連する多くの自動化システムは、機密情報に基づいて決定を下したり、特定の社会的グループ(例えば、特定の人物認識のための生体認証システム)を識別することが示されている。
異質な情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中のセンシティブな要素や内部バイアスによってどのように影響を受けるかを研究することを目的として、架空の自動採用テストベッドであるFairCVtestを提案する。
性別や人種バイアスを意識して得点したマルチモーダル合成プロファイルを用いて,自動採用アルゴリズムを訓練する。
faircvtestは、そのような採用ツールの背後にある人工知能(ai)の能力を示し、非構造化データから機密情報を抽出し、望ましくない(公正な)方法でデータバイアスと組み合わせて活用する。
最後に,深層学習アーキテクチャの意思決定プロセスからセンシティブな情報を除去可能な最近の開発手法の一覧を示す。
我々は、これらのアルゴリズムのうちの1つ(SensitiveNets)を使って、マルチモーダルAIフレームワークにおけるセンシティブな情報の排除のための差別認識学習を実験しました。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
関連論文リスト
- Dynamically Masked Discriminator for Generative Adversarial Networks [71.33631511762782]
GAN(Generative Adversarial Networks)のトレーニングは依然として難しい問題である。
識別器は、実際の/生成されたデータの分布を学習してジェネレータを訓練する。
本稿では,オンライン連続学習の観点から,GANの新たな手法を提案する。
論文 参考訳(メタデータ) (2023-06-13T12:07:01Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Human-in-the-Loop Disinformation Detection: Stance, Sentiment, or
Something Else? [93.91375268580806]
政治とパンデミックは、機械学習対応の偽ニュース検出アルゴリズムの開発に十分な動機を与えている。
既存の文献は、主に完全自動化されたケースに焦点を当てているが、その結果得られた技術は、軍事応用に必要な様々なトピック、ソース、時間スケールに関する偽情報を確実に検出することはできない。
既に利用可能なアナリストを人間のループとして活用することにより、感情分析、アスペクトベースの感情分析、姿勢検出といった標準的な機械学習技術は、部分的に自動化された偽情報検出システムに使用するためのもっとも有効な方法となる。
論文 参考訳(メタデータ) (2021-11-09T13:30:34Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - Detecting discriminatory risk through data annotation based on Bayesian
inferences [5.017973966200985]
本稿では,与えられたデータセットの判別結果のリスクについて警告することを目的としたデータアノテーション手法を提案する。
機械学習コミュニティが一般的にアクセスする3つのデータセット上で,我々のシステムを実証的にテストする。
論文 参考訳(メタデータ) (2021-01-27T12:43:42Z) - Investigating the Robustness of Artificial Intelligent Algorithms with
Mixture Experiments [1.877815076482061]
AIアルゴリズムの堅牢性は、不正確な予測によって安全上の懸念が生じ、AIシステムの採用が制限される可能性があるため、大きな関心事である。
ロバストな分類アルゴリズムは、異なるアプリケーションシナリオ下で高い精度と低い変数を持つことが期待されている。
我々は、予測性能を収集するために、総合的な混合実験を行う。
次に,様々な要因がAI分類アルゴリズムの堅牢性にどのように影響するかを統計的に分析する。
論文 参考訳(メタデータ) (2020-10-10T15:38:53Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。