論文の概要: Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment
- arxiv url: http://arxiv.org/abs/2302.10908v1
- Date: Mon, 13 Feb 2023 16:44:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-26 13:42:50.577183
- Title: Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment
- Title(参考訳): 人間中心型マルチモーダル機械学習:aiに基づくリクルートに関する最近の進歩とテストベッド
- Authors: Alejandro Pe\~na, Ignacio Serna, Aythami Morales, Julian Fierrez,
Alfonso Ortega, Ainhoa Herrarte, Manuel Alcantara and Javier Ortega-Garcia
- Abstract要約: 人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
- 参考スコア(独自算出の注目度): 66.91538273487379
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The presence of decision-making algorithms in society is rapidly increasing
nowadays, while concerns about their transparency and the possibility of these
algorithms becoming new sources of discrimination are arising. There is a
certain consensus about the need to develop AI applications with a
Human-Centric approach. Human-Centric Machine Learning needs to be developed
based on four main requirements: (i) utility and social good; (ii) privacy and
data ownership; (iii) transparency and accountability; and (iv) fairness in
AI-driven decision-making processes. All these four Human-Centric requirements
are closely related to each other. With the aim of studying how current
multimodal algorithms based on heterogeneous sources of information are
affected by sensitive elements and inner biases in the data, we propose a
fictitious case study focused on automated recruitment: FairCVtest. We train
automatic recruitment algorithms using a set of multimodal synthetic profiles
including image, text, and structured data, which are consciously scored with
gender and racial biases. FairCVtest shows the capacity of the Artificial
Intelligence (AI) behind automatic recruitment tools built this way (a common
practice in many other application scenarios beyond recruitment) to extract
sensitive information from unstructured data and exploit it in combination to
data biases in undesirable (unfair) ways. We present an overview of recent
works developing techniques capable of removing sensitive information and
biases from the decision-making process of deep learning architectures, as well
as commonly used databases for fairness research in AI. We demonstrate how
learning approaches developed to guarantee privacy in latent spaces can lead to
unbiased and fair automatic decision-making process.
- Abstract(参考訳): 社会における意思決定アルゴリズムの存在は急速に増加しており、その透明性とこれらのアルゴリズムが新たな差別源となる可能性への懸念が生まれている。
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
人中心機械学習は4つの主要な要件に基づいて開発する必要がある。
(i)実用性及び社会性
(二)プライバシー及びデータ所有権
(iii)透明性及び説明責任、及び
(4)AIによる意思決定プロセスにおける公平性。
これら4つの人間中心の要件は互いに密接に関連している。
異質な情報ソースに基づく現在のマルチモーダルアルゴリズムが、データ中のセンシティブな要素や内部バイアスによってどのように影響を受けるかを研究することを目的として、自動採用に焦点を当てた架空のケーススタディであるFairCVtestを提案する。
画像,テキスト,構造化データを含むマルチモーダル合成プロファイルを用いて自動採用アルゴリズムを訓練し,性別や人種の偏りから意識的に得点する。
faircvtestは、この方法で構築された自動リクルートツール(リクルート以外の多くのアプリケーションシナリオで一般的なプラクティス)を支える人工知能(ai)の能力を示し、非構造化データから機密情報を抽出し、望ましくない(好ましくない)方法でデータバイアスと組み合わせて活用する。
本稿では、ディープラーニングアーキテクチャの意思決定プロセスからセンシティブな情報やバイアスを取り除く技術や、aiにおけるフェアネス研究に一般的に使用されるデータベースについて概説する。
我々は、潜在空間におけるプライバシーを保証するための学習アプローチが、偏見のない公正な自動意思決定プロセスにつながることを実証する。
関連論文リスト
- On Responsible Machine Learning Datasets with Fairness, Privacy, and Regulatory Norms [56.119374302685934]
AI技術の信頼性に関する深刻な懸念があった。
機械学習とディープラーニングのアルゴリズムは、開発に使用されるデータに大きく依存する。
本稿では,責任あるルーブリックを用いてデータセットを評価するフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-24T14:01:53Z) - What Matters in Learning from Offline Human Demonstrations for Robot
Manipulation [64.43440450794495]
ロボット操作のための6つのオフライン学習アルゴリズムについて広範な研究を行う。
我々の研究は、オフラインの人間のデータから学習する際の最も重要な課題を分析します。
人間のデータセットから学ぶ機会を強調します。
論文 参考訳(メタデータ) (2021-08-06T20:48:30Z) - Towards Fairness Certification in Artificial Intelligence [31.920661197618195]
我々は,AIフェアネス認証に必要な運用手順を定義するための最初の共同作業を提案する。
我々は、オフィシャルサービスに入る前にAIシステムが満たすべき基準と、公正な判断のためにその機能を監視するのに役立つ適合性評価手順を概観する。
論文 参考訳(メタデータ) (2021-06-04T14:12:12Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - FAE: A Fairness-Aware Ensemble Framework [18.993049769711114]
FAE(Fairness-Aware Ensemble)フレームワークは、データ分析プロセスの前処理と後処理の両方でフェアネスに関連する介入を組み合わせる。
事前処理では,保護群とクラス不均衡の問題に対処する。
後処理のステップでは、決定境界を公平な方向にシフトさせることにより、クラスオーバーラップの問題に取り組む。
論文 参考訳(メタデータ) (2020-02-03T13:05:18Z) - Bias in Data-driven AI Systems -- An Introductory Survey [37.34717604783343]
この調査は、(大きな)データと強力な機械学習(ML)アルゴリズムによって、AIの大部分は、データ駆動型AIに重点を置いている。
さもなければ、一般的な用語バイアスを使ってデータの収集や処理に関連する問題を説明します。
論文 参考訳(メタデータ) (2020-01-14T09:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。