論文の概要: Context-Aware Discrimination Detection in Job Vacancies using
Computational Language Models
- arxiv url: http://arxiv.org/abs/2202.03907v1
- Date: Wed, 2 Feb 2022 09:25:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 14:27:40.394899
- Title: Context-Aware Discrimination Detection in Job Vacancies using
Computational Language Models
- Title(参考訳): 計算言語モデルを用いた求職者の文脈認識識別
- Authors: S. Vethman, A. Adhikari, M. H. T. de Boer, J. A. G. M. van Genabeek,
C. J. Veenman
- Abstract要約: 差別的な職種は世界中で認められていないが、今も継続している。
差別的な職種は、直接候補者の人口構成に言及することで明確にすることができる。
暗黙の差別形態も存在し、必ずしも違法であるとは限らないが、それでも応募者の多様性に影響を与える可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discriminatory job vacancies are disapproved worldwide, but remain
persistent. Discrimination in job vacancies can be explicit by directly
referring to demographic memberships of candidates. More implicit forms of
discrimination are also present that may not always be illegal but still
influence the diversity of applicants. Explicit written discrimination is still
present in numerous job vacancies, as was recently observed in the Netherlands.
Current efforts for the detection of explicit discrimination concern the
identification of job vacancies containing potentially discriminating terms
such as "young" or "male". However, automatic detection is inefficient due to
low precision: e.g. "we are a young company" or "working with mostly male
patients" are phrases that contain explicit terms, while the context shows that
these do not reflect discriminatory content.
In this paper, we show how machine learning based computational language
models can raise precision in the detection of explicit discrimination by
identifying when the potentially discriminating terms are used in a
discriminatory context. We focus on gender discrimination, which indeed suffers
from low precision when filtering explicit terms. First, we created a data set
for gender discrimination in job vacancies. Second, we investigated a variety
of computational language models for discriminatory context detection. Third,
we evaluated the capability of these models to detect unforeseen discriminating
terms in context. The results show that machine learning based methods can
detect explicit gender discrimination with high precision and help in finding
new forms of discrimination. Accordingly, the proposed methods can
substantially increase the effectiveness of detecting job vacancies which are
highly suspected to be discriminatory. In turn, this may lower the
discrimination experienced at the start of the recruitment process.
- Abstract(参考訳): 差別的な職種は世界中で認められていないが、継続している。
雇用機会の差別は、候補者の人口構成員を直接参照することで明確化することができる。
より暗黙的な差別も存在し、常に違法であるとは限らないが、それでも応募者の多様性に影響を与えている。
オランダで最近観察されたように、明確に書かれた差別は依然として多くの職種に存在している。
明示的な差別の検出に向けた現在の取り組みは、"young"や"male"のような潜在的に識別可能な用語を含む仕事の空白の識別に関するものである。
しかし、自動検出は低い精度で非効率である:例えば、「我々は若い会社だ」とか「主に男性患者と仕事をしている」といった単語は、明示的な用語を含む言葉であり、文脈はこれらが差別的内容を反映していないことを示している。
本稿では、機械学習に基づく計算言語モデルが、識別文脈において、潜在的に識別される単語がいつ使われるかを特定することによって、明示的識別の検出において精度を高める方法を示す。
我々は、明示的な用語をフィルタリングする場合の精度が低下する性差別に焦点を当てている。
まず、職種別性別差別のためのデータセットを作成しました。
次に,識別文脈検出のための様々な計算言語モデルについて検討した。
第3に,これらのモデルの文脈における予期せぬ識別項の検出能力を評価した。
その結果, 機械学習に基づく手法は, 明瞭な性別識別を高精度に検出し, 新たな差別形態の発見に有効であることが示唆された。
したがって,提案手法は,差別性が高いと思われるジョブ空洞の検出効果を実質的に高めることができる。
これにより、採用プロセスの開始時に経験される差別が低下する可能性がある。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Unlawful Proxy Discrimination: A Framework for Challenging Inherently Discriminatory Algorithms [4.1221687771754]
EUの直接差別という法的概念は、様々なアルゴリズムによる意思決定の文脈に適用できる。
間接的差別とは異なり、直接的差別の枠組みには「客観的正当化」段階は存在しない。
アルゴリズムの文脈における直接差別の最も可能性の高い候補に焦点を当てる。
論文 参考訳(メタデータ) (2024-04-22T10:06:17Z) - Generalizing Fairness to Generative Language Models via Reformulation of Non-discrimination Criteria [4.738231680800414]
本稿では、生成言語モデルにおけるジェンダーバイアスの存在を解明し、定量化する方法について研究する。
我々は、独立性、分離性、充足性という3つのよく知られた非識別基準のジェネレーティブAIアナログを導出する。
本研究は,このような対話型言語モデルにおける職業性バイアスの存在に対処するものである。
論文 参考訳(メタデータ) (2024-03-13T14:19:08Z) - Discrimination through Image Selection by Job Advertisers on Facebook [79.21648699199648]
求人広告における新たな差別手段の出現状況について検討する。
ターゲティングとデリバリーの両方を組み合わせ、求人広告画像の特定の人口層を不均等に表現したり排除したりする。
私たちはFacebook Ad Libraryを使って、このプラクティスの有病率を実証しています。
論文 参考訳(メタデータ) (2023-06-13T03:43:58Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Training GANs with Stronger Augmentations via Contrastive Discriminator [80.8216679195]
本稿では,gan判別器にコントラスト表現学習方式を導入する。
この「融合」により、識別者は訓練の不安定さを増すことなく、より強力な増強に対処できる。
実験の結果,contratd付きganはfidを一貫して改善し,データ拡張を組み込んだ他の手法と比較した。
論文 参考訳(メタデータ) (2021-03-17T16:04:54Z) - A Normative approach to Attest Digital Discrimination [6.372554934045607]
例えば、高利息ローンや低信用スコアを対象とする低所得地区や、オンラインマーケティングにおいて女性が21%過小評価されている例がある。
私たちは、デジタル差別につながる可能性のあるさまざまな状況を表現するために、規範を抽象化として使用しています。
特に、MLシステムの文脈における非差別規範を定式化し、MLシステムがこれらの規範に違反しているかどうかを確認するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T15:14:52Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z) - Demographics Should Not Be the Reason of Toxicity: Mitigating
Discrimination in Text Classifications with Instance Weighting [36.87473475196733]
テキスト分類データセットにおける意図しないバイアスを,非識別分布から識別分布への選択バイアスの一種として定式化する。
本手法は, モデル一般化能力を著しく損なうことなく, 意図しないバイアスの影響を効果的に緩和することができる。
論文 参考訳(メタデータ) (2020-04-29T11:22:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。