論文の概要: Revisiting gender bias research in bibliometrics: Standardizing methodological variability using Scholarly Data Analysis (SoDA) Cards
- arxiv url: http://arxiv.org/abs/2501.18129v1
- Date: Thu, 30 Jan 2025 04:22:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:14:02.365479
- Title: Revisiting gender bias research in bibliometrics: Standardizing methodological variability using Scholarly Data Analysis (SoDA) Cards
- Title(参考訳): 書誌学におけるジェンダーバイアス研究の再考:Scholarly Data Analysis(SoDA)カードを用いた方法論的変動の標準化
- Authors: HaeJin Lee, Shubhanshu Mishra, Apratim Mishra, Zhiwen You, Jinseok Kim, Jana Diesner,
- Abstract要約: 本稿では,Scholarly Data Analysis (SoDA) カードの開発と実装を提案する。
これらのカードは、学術データ分析において重要な方法論的選択を文書化し報告するための構造化されたフレームワークを提供する。
- 参考スコア(独自算出の注目度): 4.7078204693473795
- License:
- Abstract: Gender biases in scholarly metrics remain a persistent concern, despite numerous bibliometric studies exploring their presence and absence across productivity, impact, acknowledgment, and self-citations. However, methodological inconsistencies, particularly in author name disambiguation and gender identification, limit the reliability and comparability of these studies, potentially perpetuating misperceptions and hindering effective interventions. A review of 70 relevant publications over the past 12 years reveals a wide range of approaches, from name-based and manual searches to more algorithmic and gold-standard methods, with no clear consensus on best practices. This variability, compounded by challenges such as accurately disambiguating Asian names and managing unassigned gender labels, underscores the urgent need for standardized and robust methodologies. To address this critical gap, we propose the development and implementation of ``Scholarly Data Analysis (SoDA) Cards." These cards will provide a structured framework for documenting and reporting key methodological choices in scholarly data analysis, including author name disambiguation and gender identification procedures. By promoting transparency and reproducibility, SoDA Cards will facilitate more accurate comparisons and aggregations of research findings, ultimately supporting evidence-informed policymaking and enabling the longitudinal tracking of analytical approaches in the study of gender and other social biases in academia.
- Abstract(参考訳): 学術的指標における性バイアスは、生産性、影響、認知、自己引用などにわたってその存在と欠如を探求する多くの文献学的研究にもかかわらず、永続的な関心事である。
しかし、特に著者名の不明瞭さや性別の識別における方法論上の矛盾は、これらの研究の信頼性と互換性を制限し、誤認を持続させ、効果的な介入を妨げる可能性がある。
過去12年間の70の関連出版物に関するレビューでは、名前ベースの検索や手動検索から、よりアルゴリズム的でゴールドスタンダードな方法まで、幅広いアプローチが明らかにされている。
この多様性は、アジアの名前を正確に曖昧にしたり、未指定の性別ラベルを管理したりするといった課題によって複雑化され、標準化された、堅牢な方法論に対する緊急の必要性を浮き彫りにしている。
この重要なギャップに対処するため、我々は ``Scholarly Data Analysis (SoDA) カードの開発と実装を提案する。
「これらのカードは、著者名の曖昧さや性別識別手続きを含む学術データ分析において重要な方法論選択を文書化・報告するための構造化された枠組みを提供する。
透明性と再現性を促進することで、SoDA Cardsは研究結果のより正確な比較と集約を促進し、最終的にエビデンスによる政策決定をサポートし、学術における性別やその他の社会的バイアスの研究における分析的アプローチの経時的追跡を可能にする。
関連論文リスト
- exHarmony: Authorship and Citations for Benchmarking the Reviewer Assignment Problem [11.763640675057076]
明示的なラベルを必要とせずにレビュアー代入問題を評価するためのベンチマークデータセットを開発した。
従来の語彙マッチング、静的なニューラル埋め込み、文脈化されたニューラル埋め込みなど、さまざまな手法をベンチマークする。
本研究は,従来の手法が合理的に良好に機能する一方で,学術文献で訓練された文脈的埋め込みが最高の性能を示すことを示すものである。
論文 参考訳(メタデータ) (2025-02-11T16:35:04Z) - Gender assignment in doctoral theses: revisiting Teseo with a method based on cultural consensus theory [0.0]
本研究では,学術的文脈におけるジェンダー割り当て手法を批判的に評価する。
この研究は、文化的なコンセンサスに基づく手法であるnomquamgenderを導入し、スペインの論文データベースであるTeseoに適用した。
論文 参考訳(メタデータ) (2025-01-20T15:22:01Z) - Bridging the Gap: Protocol Towards Fair and Consistent Affect Analysis [24.737468736951374]
日々の生活における機械学習アルゴリズムの統合の増加は、その展開における公平性と公平性の重要性を浮き彫りにしている。
既存のデータベースと方法論は均一性に欠けており、バイアスのある評価につながっている。
この研究は、6つの感情的なデータベースを分析し、属性を注釈付けし、データベース分割のための共通のプロトコルを提案することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2024-05-10T22:40:01Z) - Too Good To Be True: performance overestimation in (re)current practices
for Human Activity Recognition [49.1574468325115]
データセグメンテーションのためのスライディングウィンドウと、標準のランダムk倍のクロスバリデーションが続くと、バイアスのある結果が得られる。
この問題に対する科学界の認識を高めることは重要であり、その否定的な影響は見落とされつつある。
異なるタイプのデータセットと異なるタイプの分類モデルを用いたいくつかの実験により、問題を示し、メソッドやデータセットとは独立して持続することを示すことができる。
論文 参考訳(メタデータ) (2023-10-18T13:24:05Z) - Inferring gender from name: a large scale performance evaluation study [4.934579134540613]
研究者は、簡単に利用可能な情報から、主に人物の名前から性別を推測する必要がある。
名前と性別の推論は、アルゴリズムのアプローチとソフトウェア製品の領域を継続的に発展させてきた。
我々は,既存手法を大規模に評価し,名前と性別の推論を行う。
既存のどのアプローチよりも優れたパフォーマンスを実現する2つの新しいハイブリッドアプローチを提案する。
論文 参考訳(メタデータ) (2023-08-22T13:38:45Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - Robust Quantification of Gender Disparity in Pre-Modern English
Literature using Natural Language Processing [8.185725740857594]
前近代文学における女性キャラクタと男性キャラクタの有病率の相違を示す。
この不一致は、この世紀から長い期間にデータをプロットするにつれて、比較的安定しているように思われる。
我々は,本研究に関連する限界と倫理的注意点の両方を慎重に記述することを目的とする。
論文 参考訳(メタデータ) (2022-04-12T15:11:22Z) - Algorithmic Fairness Datasets: the Story so Far [68.45921483094705]
データ駆動アルゴリズムは、人々の幸福に直接影響し、批判的な決定をサポートするために、さまざまな領域で研究されている。
研究者のコミュニティは、既存のアルゴリズムの株式を調査し、新しいアルゴリズムを提案し、歴史的に不利な人口に対する自動意思決定のリスクと機会の理解を深めてきた。
公正な機械学習の進歩はデータに基づいており、適切に文書化された場合にのみ適切に使用できる。
残念なことに、アルゴリズムフェアネスコミュニティは、特定のリソース(オパシティ)に関する情報の不足と利用可能な情報の分散(スパーシティ)によって引き起こされる、集合的なデータドキュメント負債に悩まされている。
論文 参考訳(メタデータ) (2022-02-03T17:25:46Z) - Through the Data Management Lens: Experimental Analysis and Evaluation
of Fair Classification [75.49600684537117]
データ管理研究は、データとアルゴリズムの公平性に関連するトピックに対する存在感と関心が高まっている。
我々は,その正しさ,公平性,効率性,スケーラビリティ,安定性よりも,13の公正な分類アプローチと追加の変種を幅広く分析している。
我々の分析は、異なるメトリクスとハイレベルなアプローチ特性がパフォーマンスの異なる側面に与える影響に関する新しい洞察を強調します。
論文 参考訳(メタデータ) (2021-01-18T22:55:40Z) - Towards causal benchmarking of bias in face analysis algorithms [54.19499274513654]
顔分析アルゴリズムのアルゴリズムバイアスを測定する実験手法を開発した。
提案手法は,一致したサンプル画像の合成トランスクター'を生成することに基づく。
性別分類アルゴリズムの偏見を従来の観察法を用いて分析することにより,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2020-07-13T17:10:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。