論文の概要: Gender Representation and Bias in Indian Civil Service Mock Interviews
- arxiv url: http://arxiv.org/abs/2409.12194v1
- Date: Wed, 18 Sep 2024 17:59:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 16:21:44.856837
- Title: Gender Representation and Bias in Indian Civil Service Mock Interviews
- Title(参考訳): インド公務員のモックインタビューにおけるジェンダー表現とバイアス
- Authors: Somonnoy Banerjee, Sujan Dutta, Soumyajit Datta, Ashiqur R. KhudaBukhsh,
- Abstract要約: 男女の偏見は、男女の候補者に質問する質問の幅広い性質に見受けられる。
大きな言語モデルを用いた実験は、説明に性別バイアスが強く存在することを示している。
本稿では,今後の社会科学研究に有用な51,278質問のデータセットを提案する。
- 参考スコア(独自算出の注目度): 11.330830398772582
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper makes three key contributions. First, via a substantial corpus of 51,278 interview questions sourced from 888 YouTube videos of mock interviews of Indian civil service candidates, we demonstrate stark gender bias in the broad nature of questions asked to male and female candidates. Second, our experiments with large language models show a strong presence of gender bias in explanations provided by the LLMs on the gender inference task. Finally, we present a novel dataset of 51,278 interview questions that can inform future social science studies.
- Abstract(参考訳): この論文は3つの重要な貢献をする。
まず、インドの市民サービス候補者の模擬インタビューを888件のYouTubeビデオから引用した51,278件のインタビューのコーパスを通じて、男女の候補者に質問する質問の幅広い性質において、男女の偏見を示す。
第2に、大きな言語モデルを用いた実験は、性別推定タスクにおけるLSMによる説明において、性別バイアスが強く存在することを示す。
最後に,今後の社会科学研究に影響を及ぼすことのできる51,278の面接質問のデータセットを提示する。
関連論文リスト
- PolInterviews -- A Dataset of German Politician Public Broadcast Interviews [0.0]
本稿では,高官のドイツ人政治家を特集した公開インタビューのデータセットについて紹介する。
インタビューはYouTubeからソースされ、書き起こされ、話者識別のために処理され、タイディでオープンな形式で保存された。
このデータセットは、5つの主要なインタビューフォーマットで、33人の異なるドイツの政治家との99のインタビューで構成され、合計28,146の文が含まれている。
論文 参考訳(メタデータ) (2025-01-08T13:09:45Z) - Gender Bias in Text-to-Video Generation Models: A case study of Sora [63.064204206220936]
本研究では,OpenAIのテキスト・ビデオ生成モデルであるSoraにおけるジェンダーバイアスの存在について検討した。
性別ニュートラルとステレオタイププロンプトの多種多様なセットから生成されたビデオを分析し、バイアスの有意な証拠を明らかにした。
論文 参考訳(メタデータ) (2024-12-30T18:08:13Z) - Gender Bias in LLM-generated Interview Responses [1.6124402884077915]
本研究は, モデル, 質問タイプ, 職種にまたがって, LLM生成面接応答の多面的監査を行うための3つのLCMを評価した。
その結果,男女の偏見は一貫しており,性別のステレオタイプや仕事の優位性と密接に一致していることが判明した。
論文 参考訳(メタデータ) (2024-10-28T05:08:08Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Gender Bias in Large Language Models across Multiple Languages [10.068466432117113]
異なる言語で生成される大言語モデル(LLM)の性別バイアスについて検討する。
1) 性別関連文脈から記述的単語を選択する際の性別バイアス。
2) 性別関連代名詞を選択する際の性別バイアスは, 記述語を付与する。
論文 参考訳(メタデータ) (2024-03-01T04:47:16Z) - Probing Explicit and Implicit Gender Bias through LLM Conditional Text
Generation [64.79319733514266]
大規模言語モデル(LLM)はバイアスと有害な応答を生成する。
本研究では,あらかじめ定義されたジェンダーフレーズやステレオタイプを必要としない条件付きテキスト生成機構を提案する。
論文 参考訳(メタデータ) (2023-11-01T05:31:46Z) - EZInterviewer: To Improve Job Interview Performance with Mock Interview
Generator [60.2099886983184]
EZInterviewerは、オンライン面接データから学び、求職者に模擬面接サービスを提供する。
低リソースの課題に対処するため、EZInterviewerはインタビューダイアログのごく小さなセットで訓練されている。
論文 参考訳(メタデータ) (2023-01-03T07:00:30Z) - Professional Presentation and Projected Power: A Case Study of Implicit
Gender Information in English CVs [8.947168670095326]
本稿では,男女のCVにおけるスキルと背景のフレーミングについて検討する。
我々は、米国から1.8Kの正当性、英語、CVのデータセットを導入し、16の職業をカバーした。
論文 参考訳(メタデータ) (2022-11-17T23:26:52Z) - Deep Multi-Task Models for Misogyny Identification and Categorization on
Arabic Social Media [6.6410040715586005]
本稿では,最初のアラビア語ミソジニー識別共有タスクについて提案する。
3つのマルチタスク学習モデルと1つのタスク学習モデルについて検討する。
入力テキストを符号化するために、我々のモデルは事前訓練されたMARBERT言語モデルに依存している。
論文 参考訳(メタデータ) (2022-06-16T18:54:37Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。