論文の概要: Gender assignment in doctoral theses: revisiting Teseo with a method based on cultural consensus theory
- arxiv url: http://arxiv.org/abs/2501.18607v1
- Date: Mon, 20 Jan 2025 15:22:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-09 05:47:11.760099
- Title: Gender assignment in doctoral theses: revisiting Teseo with a method based on cultural consensus theory
- Title(参考訳): 博士論文におけるジェンダーの課題--文化コンセンサス理論に基づく方法によるテセオの再考
- Authors: Nataly Matias-Rayme, Iuliana Botezan, Mari Carmen Suárez-Figueroa, Rodrigo Sánchez-Jiménez,
- Abstract要約: 本研究では,学術的文脈におけるジェンダー割り当て手法を批判的に評価する。
この研究は、文化的なコンセンサスに基づく手法であるnomquamgenderを導入し、スペインの論文データベースであるTeseoに適用した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study critically evaluates gender assignment methods within academic contexts, employing a comparative analysis of diverse techniques, including a SVM classifier, gender-guesser, genderize.io, and a Cultural Consensus Theory based classifier. Emphasizing the significance of transparency, data sources, and methodological considerations, the research introduces nomquamgender, a cultural consensus-based method, and applies it to Teseo, a Spanish dissertation database. The results reveal a substantial reduction in the number of individuals with unknown gender compared to traditional methods relying on INE data. The nuanced differences in gender distribution underscore the importance of methodological choices in gender studies, urging for transparent, comprehensive, and freely accessible methods to enhance the accuracy and reliability of gender assignment in academic research. After reevaluating the problem of gender imbalances in the doctoral system we can conclude that it's still evident although the trend is clearly set for its reduction. Finaly, specific problems related to some disciplines, including STEM fields and seniority roles are found to be worth of attention in the near future.
- Abstract(参考訳): 本研究では、SVM分類器、ジェンダー・ゲッサー、ジェンダーize.io、文化合意理論に基づく分類器など、さまざまな手法の比較分析を用いて、学術的文脈におけるジェンダー割り当て手法を批判的に評価する。
この研究は透明性、データソース、方法論的考察の重要性を強調し、文化的なコンセンサスに基づく手法であるnomquamgenderを導入し、スペインの論文データベースであるTeseoに適用した。
その結果、INEデータに依存する従来の手法と比較して、性別不明の個体数が大幅に減少していることが明らかとなった。
性別分布の微妙な違いは、学術研究における性別割り当ての正確さと信頼性を高めるために、透明で包括的でアクセスしやすい方法を求める、性別研究における方法論的選択の重要性を浮き彫りにしている。
博士制度における男女不均衡の問題を再評価した結果、この傾向は明らかにその減少のために設定されているものの、まだ明らかであると結論付けることができる。
最終的に、STEMフィールドや高齢者の役割を含むいくつかの分野に関連する特定の問題は、近い将来、注目に値するものとなる。
関連論文リスト
- Revisiting gender bias research in bibliometrics: Standardizing methodological variability using Scholarly Data Analysis (SoDA) Cards [4.7078204693473795]
本稿では,Scholarly Data Analysis (SoDA) カードの開発と実装を提案する。
これらのカードは、学術データ分析において重要な方法論的選択を文書化し報告するための構造化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2025-01-30T04:22:50Z) - Blind Men and the Elephant: Diverse Perspectives on Gender Stereotypes in Benchmark Datasets [17.101242741559428]
本稿では,言語モデルの固有バイアス緩和と測定戦略に焦点を当てる。
我々は、本質的な測定を深く掘り下げ、矛盾を識別し、これらのベンチマークがジェンダーステレオタイプの違いを反映している可能性を示唆している。
本研究は, 言語モデルにおけるジェンダーステレオタイピングの複雑さと, 偏見の検出・低減のための, より洗練された手法を開発するための新たな方向性を指摘するものである。
論文 参考訳(メタデータ) (2025-01-02T09:40:31Z) - The Root Shapes the Fruit: On the Persistence of Gender-Exclusive Harms in Aligned Language Models [58.130894823145205]
我々はトランスジェンダー、ノンバイナリ、その他のジェンダー・ディバースのアイデンティティを中心とし、アライメント手順が既存のジェンダー・ディバースバイアスとどのように相互作用するかを検討する。
以上の結果から,DPO対応モデルは特に教師付き微調整に敏感であることが示唆された。
DPOとより広範なアライメントプラクティスに合わせたレコメンデーションで締めくくります。
論文 参考訳(メタデータ) (2024-11-06T06:50:50Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Inferring gender from name: a large scale performance evaluation study [4.934579134540613]
研究者は、簡単に利用可能な情報から、主に人物の名前から性別を推測する必要がある。
名前と性別の推論は、アルゴリズムのアプローチとソフトウェア製品の領域を継続的に発展させてきた。
我々は,既存手法を大規模に評価し,名前と性別の推論を行う。
既存のどのアプローチよりも優れたパフォーマンスを実現する2つの新しいハイブリッドアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T13:38:45Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Gender Bias in Transformer Models: A comprehensive survey [1.1011268090482573]
人工知能(AI)におけるジェンダーバイアスは、個人の生活に深く影響する懸念として浮上している。
本稿では,トランスフォーマーモデルにおけるジェンダーバイアスを言語学的観点から調査する。
論文 参考訳(メタデータ) (2023-06-18T11:40:47Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。