論文の概要: Implicit Gender Bias in Computer Science -- A Qualitative Study
- arxiv url: http://arxiv.org/abs/2107.01624v1
- Date: Sun, 4 Jul 2021 13:30:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 11:28:27.755711
- Title: Implicit Gender Bias in Computer Science -- A Qualitative Study
- Title(参考訳): コンピュータサイエンスにおける暗黙のジェンダーバイアス - 質的研究
- Authors: Aur\'elie Breidenbach and Caroline Mahlow and Andreas Schreiber
- Abstract要約: テックセクターにおけるジェンダーの多様性は、男女のバランスの取れた比率を作るのに十分である。
多くの女性にとって、コンピュータ科学へのアクセスは社会化、社会的、文化的、構造的な障害によって妨げられている。
コンピュータ科学の分野における接触の欠如は、潜在的な関心を発展または拡大させることを困難にしている。
- 参考スコア(独自算出の注目度): 3.158346511479111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender diversity in the tech sector is - not yet? - sufficient to create a
balanced ratio of men and women. For many women, access to computer science is
hampered by socialization-related, social, cultural and structural obstacles.
The so-called implicit gender bias has a great influence in this respect. The
lack of contact in areas of computer science makes it difficult to develop or
expand potential interests. Female role models as well as more transparency of
the job description should help women to promote their - possible - interest in
the job description. However, gender diversity can also be promoted and
fostered through adapted measures by leaders.
- Abstract(参考訳): テックセクターにおけるジェンダーの多様性は--まだ?
-男女のバランスの取れた比率を作るのに十分。
多くの女性にとって、コンピュータ科学へのアクセスは社会化、社会的、文化的、構造的な障害によって妨げられている。
いわゆる暗黙のジェンダーバイアスは、この点に大きな影響を与えている。
コンピュータ科学の分野における接触の欠如は、潜在的な関心の発展や拡大を困難にしている。
女性の役割モデルと、仕事の説明の透明性の向上は、女性が仕事の説明への関心を促進するのに役立つだろう。
しかし、ジェンダーの多様性はリーダーによる適応的な措置によって促進し、育むことができる。
関連論文リスト
- Revealing and Reducing Gender Biases in Vision and Language Assistants (VLAs) [82.57490175399693]
画像・テキスト・ビジョン言語アシスタント(VLA)22種における性別バイアスの検討
以上の結果から,VLAは実世界の作業不均衡など,データ中の人間のバイアスを再現する可能性が示唆された。
これらのモデルにおける性別バイアスを排除するため、微調整に基づくデバイアス法は、下流タスクにおけるデバイアスとパフォーマンスの最良のトレードオフを実現する。
論文 参考訳(メタデータ) (2024-10-25T05:59:44Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Thinking beyond Bias: Analyzing Multifaceted Impacts and Implications of AI on Gendered Labour [1.5839621757142595]
本稿では、ジェンダー労働に対するAIの広範な影響を探求する必要性を強調する。
私たちは、AI産業がより大きな経済構造に不可欠な要素であるということが、仕事の性質をいかに変えているかに注意を払っています。
論文 参考訳(メタデータ) (2024-06-23T20:09:53Z) - Perceptions of Entrepreneurship Among Graduate Students: Challenges, Opportunities, and Cultural Biases [0.0]
本論文は、デジタル指向の起業コースに入学した大学院生の起業意識に焦点を当てたものである。
学生が提起した主な問題は、資源不足や支援の欠如など、内的特性と外部的障害であった。
性差別と文化的偏見は継続し、女性の機会と平等を制限している。
論文 参考訳(メタデータ) (2024-05-10T08:35:18Z) - Breaking Barriers: Investigating the Sense of Belonging Among Women and Non-Binary Students in Software Engineering [1.9075820340282934]
女性はソフトウェアエンジニアリング業界でキャリアを追求する可能性がはるかに低い。
女性や少数派が業界を離れる理由は、成長と発展の機会の欠如にある。
本研究は,ソフトウェア工学教育における女性や非バイナリ個人にとって不利な産業の育成や維持の可能性について考察する。
論文 参考訳(メタデータ) (2024-05-06T20:07:45Z) - The Gender-GAP Pipeline: A Gender-Aware Polyglot Pipeline for Gender
Characterisation in 55 Languages [51.2321117760104]
本稿では,55言語を対象とした大規模データセットにおけるジェンダー表現を特徴付ける自動パイプラインであるGender-GAP Pipelineについて述べる。
このパイプラインは、性別付き人称名詞の多言語語彙を用いて、テキスト中の性別表現を定量化する。
本稿では、WMTのトレーニングデータとNewsタスクの開発データにジェンダー表現を報告し、現在のデータが男性表現にスキューされていることを確認する。
論文 参考訳(メタデータ) (2023-08-31T17:20:50Z) - Monitoring Gender Gaps via LinkedIn Advertising Estimates: the case
study of Italy [3.5493798890908104]
我々は、LinkedInの推定値の可能性を評価し、ジェンダーギャップの進化を持続的に監視する。
以上の結果から,LinkedInの推定値がイタリアにおける社会デマトグラフィー属性に関する男女格差を正確に把握していることが示唆された。
同時に、不均衡な方法で労働者の表現力に影響を与えるデジタル化ギャップなどのデータバイアスを評価する。
論文 参考訳(メタデータ) (2023-03-10T11:32:45Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - They, Them, Theirs: Rewriting with Gender-Neutral English [56.14842450974887]
私たちは、英語でジェンダーインクルージョンを促進する一般的な方法である特異点についてケーススタディを行います。
本研究では, 人為的データを持たない1%の単語誤り率で, ジェンダーニュートラルな英語を学習できるモデルについて述べる。
論文 参考訳(メタデータ) (2021-02-12T21:47:48Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。