論文の概要: How optimal transport can tackle gender biases in multi-class
neural-network classifiers for job recommendations?
- arxiv url: http://arxiv.org/abs/2302.14063v1
- Date: Mon, 27 Feb 2023 13:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 19:19:23.494302
- Title: How optimal transport can tackle gender biases in multi-class
neural-network classifiers for job recommendations?
- Title(参考訳): ジョブ推薦のためのマルチクラスニューラルネットワーク分類器におけるジェンダーバイアスに対する最適輸送法
- Authors: Fanny Jourdan, Titon Tshiongo Kaninku, Nicholas Asher, Jean-Michel
Loubes, Laurent Risser
- Abstract要約: マルチクラスニューラルネットワーク分類において、望ましくないアルゴリズムバイアスを軽減するために、新しい最適な輸送戦略を提案する。
結果は、この文脈における望ましくないアルゴリズムバイアスを標準戦略よりも低いレベルに減らすことができることを示している。
- 参考スコア(独自算出の注目度): 3.729111904213802
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic recommendation systems based on deep neural networks have become
extremely popular during the last decade. Some of these systems can however be
used for applications which are ranked as High Risk by the European Commission
in the A.I. act, as for instance for online job candidate recommendation. When
used in the European Union, commercial AI systems for this purpose will then be
required to have to proper statistical properties with regard to potential
discrimination they could engender. This motivated our contribution, where we
present a novel optimal transport strategy to mitigate undesirable algorithmic
biases in multi-class neural-network classification. Our stratey is model
agnostic and can be used on any multi-class classification neural-network
model. To anticipate the certification of recommendation systems using textual
data, we then used it on the Bios dataset, for which the learning task consists
in predicting the occupation of female and male individuals, based on their
LinkedIn biography. Results show that it can reduce undesired algorithmic
biases in this context to lower levels than a standard strategy.
- Abstract(参考訳): ディープニューラルネットワークに基づく自動レコメンデーションシステムは、この10年間で非常に人気を集めている。
しかし、これらのシステムのいくつかは、例えばオンライン求人候補推薦のように、欧州委員会によってa.i.法で高いリスクにランクされたアプリケーションに使用できる。
欧州連合で使用される場合、この目的のために商用aiシステムは、彼らが関与できる潜在的な差別に関して適切な統計特性を持つ必要がある。
これは多クラスニューラルネットワーク分類における望ましくないアルゴリズムバイアスを軽減するための新しい最適輸送戦略を提案するという、我々の貢献の動機となった。
私たちの戦略はモデル非依存で、任意のマルチクラス分類ニューラルネットワークモデルで使用できます。
テキストデータを用いたレコメンデーションシステムの認証を期待するために、LinkedInの伝記に基づいて、男女の職業を予測するための学習タスクであるBiosデータセットにそれを用いた。
結果は、この文脈における望ましくないアルゴリズムバイアスを標準戦略よりも低いレベルに減らすことができることを示している。
関連論文リスト
- Sample Complexity of Preference-Based Nonparametric Off-Policy
Evaluation with Deep Networks [58.469818546042696]
我々は、OPEのサンプル効率を人間の好みで研究し、その統計的保証を確立する。
ReLUネットワークのサイズを適切に選択することにより、マルコフ決定過程において任意の低次元多様体構造を活用できることが示される。
論文 参考訳(メタデータ) (2023-10-16T16:27:06Z) - Active Inference-Based Optimization of Discriminative Neural Network
Classifiers [3.1219977244201056]
そこで本研究では,事前確率からトレーニングサンプルの候補分類ラベルを求めるアルゴリズムを提案する。
提案した目的関数は、まだ分布ベースでありながら、候補ラベル、元の参照ラベル、およびトレーニングサンプルの事前を組み込むことができる。
論文 参考訳(メタデータ) (2023-06-04T19:30:28Z) - Wide and Deep Neural Networks Achieve Optimality for Classification [23.738242876364865]
我々は、最適性を達成するニューラルネットワーク分類器の明示的な集合を同定し、構築する。
特に、最適性を実現するネットワーク構築に使用できる明示的なアクティベーション関数を提供する。
その結果,過度な深度が有害な回帰タスクとは対照的に,分類タスクにディープネットワークを使用することの利点が浮き彫りになった。
論文 参考訳(メタデータ) (2022-04-29T14:27:42Z) - Toward More Generalized Malicious URL Detection Models [4.151658495779136]
本稿では、悪意のあるURL検出のための機械学習モデルを実行中に、パフォーマンスに深刻な影響を及ぼす可能性のあるデータバイアス問題を明らかにする。
このようなバイアスが解釈可能な機械学習技術を用いてどのように識別できるかを説明し、そのようなバイアスが分類モデルを訓練するための現実世界のセキュリティデータに自然に存在することを論じる。
偏りのある特徴から負の効果を緩和するために、多くのディープラーニングベースモデルに適用可能な偏りのあるトレーニング戦略を提案する。
論文 参考訳(メタデータ) (2022-02-21T07:46:03Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z) - RethinkCWS: Is Chinese Word Segmentation a Solved Task? [81.11161697133095]
中国語の単語(CWS)システムの性能は、ディープニューラルネットワークの急速な発展とともに、徐々に高水準に達している。
本稿では、私たちが達成した事柄の株式を取得し、CWSタスクに残されている事柄を再考する。
論文 参考訳(メタデータ) (2020-11-13T11:07:08Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - DeBayes: a Bayesian Method for Debiasing Network Embeddings [16.588468396705366]
DeBayes は,偏りの偏った埋め込みを学習できる概念的かつエレガントなベイズ的手法である。
実験の結果、これらの表現は、一般的なメトリクスの観点ではかなり公平なリンク予測を行うのに利用できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T12:57:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。