論文の概要: Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations
- arxiv url: http://arxiv.org/abs/2108.12255v1
- Date: Sun, 22 Aug 2021 18:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 18:26:12.854564
- Title: Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations
- Title(参考訳): 情報システム分野におけるジェンダーバイアスの評価--引用への影響の分析
- Authors: Silvia Masiero and Aleksi Aaltonen
- Abstract要約: 本稿では,女性IS学者が男性同僚にvis-a-visを蓄積する学術的引用の影響を推定する研究の概要を述べる。
そこで我々は,学界における男女偏見の中核的な側面に関する知識の提供を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Gender bias, a systemic and unfair difference in how men and women are
treated in a given domain, is widely studied across different academic fields.
Yet, there are barely any studies of the phenomenon in the field of academic
information systems (IS), which is surprising especially in the light of the
proliferation of such studies in the Science, Technology, Mathematics and
Technology (STEM) disciplines. To assess potential gender bias in the IS field,
this paper outlines a study to estimate the impact of scholarly citations that
female IS academics accumulate vis-\`a-vis their male colleagues. Drawing on a
scientometric study of the 7,260 papers published in the most prestigious IS
journals (known as the AIS Basket of Eight), our analysis aims to unveil
potential bias in the accumulation of citations between genders in the field.
We use panel regression to estimate the gendered citations accumulation in the
field. By doing so we propose to contribute knowledge on a core dimension of
gender bias in academia, which is, so far, almost completely unexplored in the
IS field.
- Abstract(参考訳): ジェンダーバイアスは、特定の領域における男女の扱いの体系的かつ不公平な違いであり、様々な学術分野において広く研究されている。
しかし、学術情報システム(is)の分野におけるこの現象の研究はほとんど存在せず、科学、技術、数学、技術(stem)分野におけるそのような研究の急増に照らして特に驚きである。
is分野における潜在的なジェンダーバイアスを評価するために,本論文では,女性が学界に蓄積されているという学術的引用の影響を推定する研究について概説する。
AIS Basket of Eightとして知られるISジャーナルに掲載された7,260の論文の科学的研究に基づいて、この分野における性別間の引用の蓄積に関する潜在的なバイアスを明らかにすることを目的としている。
パネルレグレッションを用いて,この分野における引用の蓄積度を推定する。
そうすることで、これまでis分野でほとんど完全に未調査であった学界におけるジェンダーバイアスのコアディメンジョンに関する知識を寄与させることを提案する。
関連論文リスト
- Data-Driven Analysis of Gender Fairness in the Software Engineering
Academic Landscape [4.580653005421453]
本研究では,情報学(INF)およびソフトウェア工学(SE)イタリアのコミュニティにおける,学術的昇進におけるジェンダーバイアスの問題について検討する。
我々はまず,学界におけるジェンダーバイアスの問題がこれまでどのように対処されてきたかを評価するために文献レビューを実施している。
次に、イタリアの学術振興におけるジェンダーバイアスの分析に必要なINFとSEデータを収集・前処理するプロセスについて述べる。
実施した分析から,SEコミュニティが助教授への昇進のバイアスが高いこと,全教授への昇進のバイアスがINFコミュニティ全体と比較して小さいことを観察した。
論文 参考訳(メタデータ) (2023-09-20T12:04:56Z) - Gender Inequalities: Women Researchers Require More Knowledge in
Specific and Experimental Topics [1.4916971861796386]
本研究は,地域とジェンダーのアイデンティティ,トピック,知識状態の関係を分析する。
男女不平等は地域特有の特徴とグローバルな共通パターンの両方にマージされている。
論文 参考訳(メタデータ) (2023-09-05T05:36:06Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Gender Bias in Big Data Analysis [0.0]
性別予測ソフトウェアツールが歴史的ビッグデータ研究で使用されるとき、性別バイアスを測定する。
性別バイアスは、よく認識されたDBLPデータセットにおいて、個人が特定したコンピュータサイエンスの著者と対比することによって測定される。
論文 参考訳(メタデータ) (2022-11-17T20:13:04Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。