論文の概要: Gender Representation and Bias in Indian Civil Service Mock Interviews
- arxiv url: http://arxiv.org/abs/2409.12194v2
- Date: Thu, 19 Sep 2024 02:56:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-20 13:12:23.576063
- Title: Gender Representation and Bias in Indian Civil Service Mock Interviews
- Title(参考訳): インド公務員のモックインタビューにおけるジェンダー表現とバイアス
- Authors: Somonnoy Banerjee, Sujan Dutta, Soumyajit Datta, Ashiqur R. KhudaBukhsh,
- Abstract要約: 男女の偏見は、男女の候補者に質問する質問の幅広い性質に見受けられる。
大きな言語モデルを用いた実験は、説明に性別バイアスが強く存在することを示している。
本稿では,今後の社会科学研究に有用な51,278質問のデータセットを提案する。
- 参考スコア(独自算出の注目度): 11.330830398772582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper makes three key contributions. First, via a substantial corpus of 51,278 interview questions sourced from 888 YouTube videos of mock interviews of Indian civil service candidates, we demonstrate stark gender bias in the broad nature of questions asked to male and female candidates. Second, our experiments with large language models show a strong presence of gender bias in explanations provided by the LLMs on the gender inference task. Finally, we present a novel dataset of 51,278 interview questions that can inform future social science studies.
- Abstract(参考訳): この論文は3つの重要な貢献をする。
まず、インドの市民サービス候補者の模擬インタビューを888件のYouTubeビデオから引用した51,278件のインタビューのコーパスを通じて、男女の候補者に質問する質問の幅広い性質において、男女の偏見を示す。
第2に、大きな言語モデルを用いた実験は、性別推定タスクにおけるLSMによる説明において、性別バイアスが強く存在することを示す。
最後に,今後の社会科学研究に影響を及ぼすことのできる51,278の面接質問のデータセットを提示する。
関連論文リスト
- Gender Bias in LLM-generated Interview Responses [1.6124402884077915]
本研究は, モデル, 質問タイプ, 職種にまたがって, LLM生成面接応答の多面的監査を行うための3つのLCMを評価した。
その結果,男女の偏見は一貫しており,性別のステレオタイプや仕事の優位性と密接に一致していることが判明した。
論文 参考訳(メタデータ) (2024-10-28T05:08:08Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - Public Perceptions of Gender Bias in Large Language Models: Cases of
ChatGPT and Ernie [2.1756081703276]
本研究では,大規模言語モデルにおけるジェンダーバイアスの認知度を評価するために,ソーシャルメディア上での議論の内容分析を行った。
人々は、個人使用における性別バイアスの観察と、LSMにおける性別バイアスに関する科学的知見の両方を共有した。
LLMにおけるジェンダーバイアスを規制するためのガバナンスレコメンデーションを提案する。
論文 参考訳(メタデータ) (2023-09-17T00:53:34Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - EZInterviewer: To Improve Job Interview Performance with Mock Interview
Generator [60.2099886983184]
EZInterviewerは、オンライン面接データから学び、求職者に模擬面接サービスを提供する。
低リソースの課題に対処するため、EZInterviewerはインタビューダイアログのごく小さなセットで訓練されている。
論文 参考訳(メタデータ) (2023-01-03T07:00:30Z) - Professional Presentation and Projected Power: A Case Study of Implicit
Gender Information in English CVs [8.947168670095326]
本稿では,男女のCVにおけるスキルと背景のフレーミングについて検討する。
我々は、米国から1.8Kの正当性、英語、CVのデータセットを導入し、16の職業をカバーした。
論文 参考訳(メタデータ) (2022-11-17T23:26:52Z) - Deep Multi-Task Models for Misogyny Identification and Categorization on
Arabic Social Media [6.6410040715586005]
本稿では,最初のアラビア語ミソジニー識別共有タスクについて提案する。
3つのマルチタスク学習モデルと1つのタスク学習モデルについて検討する。
入力テキストを符号化するために、我々のモデルは事前訓練されたMARBERT言語モデルに依存している。
論文 参考訳(メタデータ) (2022-06-16T18:54:37Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。