論文の概要: Assessing Group-level Gender Bias in Professional Evaluations: The Case
of Medical Student End-of-Shift Feedback
- arxiv url: http://arxiv.org/abs/2206.00234v1
- Date: Wed, 1 Jun 2022 05:01:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 03:33:32.305610
- Title: Assessing Group-level Gender Bias in Professional Evaluations: The Case
of Medical Student End-of-Shift Feedback
- Title(参考訳): 職業評価におけるグループレベルのジェンダーバイアスの評価--医学生のシフトフィードバックを例として
- Authors: Emmy Liu, Michael Henry Tessler, Nicole Dubosh, Katherine Mosher
Hiller, Roger Levy
- Abstract要約: 女性医師は、上級職に不足しており、男性医師よりも収入が少なく、昇進も少ない傾向にある。
この研究は主に、LIWCのような固定辞書を用いて特定の単語を探し、レコメンデーションレターに焦点をあてることによって行われた。
複数の機関にまたがって収集された個別の勤務シフトにおける医学生の成績の書面的・定量的な評価データセットを用いて、医学生の日々の状況における男女差の程度を調査する。
- 参考スコア(独自算出の注目度): 14.065979111248497
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although approximately 50% of medical school graduates today are women,
female physicians tend to be underrepresented in senior positions, make less
money than their male counterparts and receive fewer promotions. There is a
growing body of literature demonstrating gender bias in various forms of
evaluation in medicine, but this work was mainly conducted by looking for
specific words using fixed dictionaries such as LIWC and focused on
recommendation letters. We use a dataset of written and quantitative
assessments of medical student performance on individual shifts of work,
collected across multiple institutions, to investigate the extent to which
gender bias exists in a day-to-day context for medical students. We investigate
differences in the narrative comments given to male and female students by both
male or female faculty assessors, using a fine-tuned BERT model. This allows us
to examine whether groups are written about in systematically different ways,
without relying on hand-crafted wordlists or topic models. We compare these
results to results from the traditional LIWC method and find that, although we
find no evidence of group-level gender bias in this dataset, terms related to
family and children are used more in feedback given to women.
- Abstract(参考訳): 現在、医学部卒業生の約50%は女性であるが、女性医師は上級職に不足しており、男性よりも収入が少なく、昇進も少ない傾向にある。
医学における様々な評価形態のジェンダーバイアスを示す文献が増えているが、本研究は主にliwcのような固定辞書を用いて特定の単語を探し、推薦文字に注目して行った。
複数の機関にまたがって収集された個別の勤務シフトにおける医学生の成績の書面的・定量的な評価データセットを用いて、医学生の日々の状況における男女差の程度を調査する。
本研究では,男子教員と女子教員の物語コメントの相違について,微調整のBERTモデルを用いて検討した。
これにより、手作りのワードリストやトピックモデルに頼ることなく、グループが体系的に異なる方法で書かれているかどうかを検証できます。
これらの結果と従来のLIWC法の結果を比較し、このデータセットではグループレベルの性別バイアスの証拠は見つからないが、家族や子供に関する用語は女性に与えられるフィードバックに利用されている。
関連論文リスト
- Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - Unveiling Gender Bias in Large Language Models: Using Teacher's Evaluation in Higher Education As an Example [0.0]
本稿では,Large Language Model (LLM) による高等教育環境におけるジェンダーバイアスについて検討する。
Odds Ratio (OR)分析、Word Embedding Association Test (WEAT)、感情分析、文脈分析を含む包括的な分析フレームワークを適用している。
具体的には、女性インストラクターには親しみやすさや支援に関する言葉が頻繁に用いられ、男性インストラクターにはエンターテイメントに関する言葉が主流であった。
論文 参考訳(メタデータ) (2024-09-15T07:50:33Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - GenderBias-\emph{VL}: Benchmarking Gender Bias in Vision Language Models via Counterfactual Probing [72.0343083866144]
本稿では,GenderBias-emphVLベンチマークを用いて,大規模視覚言語モデルにおける職業関連性バイアスの評価を行う。
ベンチマークを用いて15のオープンソースLVLMと最先端の商用APIを広範囲に評価した。
既存のLVLMでは男女差が広くみられた。
論文 参考訳(メタデータ) (2024-06-30T05:55:15Z) - Detecting Gender Bias in Course Evaluations [0.0]
我々は、データを調べ、探索するために異なる方法を使用し、試験者の性別に応じて、学生がコースについて書く内容の違いを見つける。
英語とスウェーデンのコースからのデータを評価・比較し、発見されるかもしれない性バイアスのニュアンスをより正確に捉える。
論文 参考訳(メタデータ) (2024-04-02T11:35:05Z) - Gender Inflected or Bias Inflicted: On Using Grammatical Gender Cues for
Bias Evaluation in Machine Translation [0.0]
我々はヒンディー語をソース言語とし、ヒンディー語(HI-EN)の異なるNMTシステムを評価するために、ジェンダー特化文の2つのセットを構築した。
本研究は,そのような外部バイアス評価データセットを設計する際に,言語の性質を考えることの重要性を強調した。
論文 参考訳(メタデータ) (2023-11-07T07:09:59Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - A Survey on Gender Bias in Natural Language Processing [22.91475787277623]
自然言語処理における性別バイアスに関する304論文について調査する。
ジェンダーバイアスの検出と緩和に対するコントラストアプローチの比較を行った。
性別偏見の研究は、4つの中核的な限界に悩まされている。
論文 参考訳(メタデータ) (2021-12-28T14:54:18Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。