論文の概要: Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations
- arxiv url: http://arxiv.org/abs/2108.12255v1
- Date: Sun, 22 Aug 2021 18:18:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 18:26:12.854564
- Title: Assessing Gender Bias in the Information Systems Field: An Analysis of
the Impact on Citations
- Title(参考訳): 情報システム分野におけるジェンダーバイアスの評価--引用への影響の分析
- Authors: Silvia Masiero and Aleksi Aaltonen
- Abstract要約: 本稿では,女性IS学者が男性同僚にvis-a-visを蓄積する学術的引用の影響を推定する研究の概要を述べる。
そこで我々は,学界における男女偏見の中核的な側面に関する知識の提供を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Gender bias, a systemic and unfair difference in how men and women are
treated in a given domain, is widely studied across different academic fields.
Yet, there are barely any studies of the phenomenon in the field of academic
information systems (IS), which is surprising especially in the light of the
proliferation of such studies in the Science, Technology, Mathematics and
Technology (STEM) disciplines. To assess potential gender bias in the IS field,
this paper outlines a study to estimate the impact of scholarly citations that
female IS academics accumulate vis-\`a-vis their male colleagues. Drawing on a
scientometric study of the 7,260 papers published in the most prestigious IS
journals (known as the AIS Basket of Eight), our analysis aims to unveil
potential bias in the accumulation of citations between genders in the field.
We use panel regression to estimate the gendered citations accumulation in the
field. By doing so we propose to contribute knowledge on a core dimension of
gender bias in academia, which is, so far, almost completely unexplored in the
IS field.
- Abstract(参考訳): ジェンダーバイアスは、特定の領域における男女の扱いの体系的かつ不公平な違いであり、様々な学術分野において広く研究されている。
しかし、学術情報システム(is)の分野におけるこの現象の研究はほとんど存在せず、科学、技術、数学、技術(stem)分野におけるそのような研究の急増に照らして特に驚きである。
is分野における潜在的なジェンダーバイアスを評価するために,本論文では,女性が学界に蓄積されているという学術的引用の影響を推定する研究について概説する。
AIS Basket of Eightとして知られるISジャーナルに掲載された7,260の論文の科学的研究に基づいて、この分野における性別間の引用の蓄積に関する潜在的なバイアスを明らかにすることを目的としている。
パネルレグレッションを用いて,この分野における引用の蓄積度を推定する。
そうすることで、これまでis分野でほとんど完全に未調査であった学界におけるジェンダーバイアスのコアディメンジョンに関する知識を寄与させることを提案する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Thanking the World: Exploring Gender-Based Differences in Acknowledgment Patterns and Support Systems in Theses [0.0]
本稿は, 男女研究者が修士課程や博士課程を修了する際の支援源について検討する。
提案手法は,RoBERTaモデルを用いて1252 ETDで認識される各種支援システムを抽出する手法である。
論文 参考訳(メタデータ) (2024-06-10T04:06:55Z) - Survey of Bias In Text-to-Image Generation: Definition, Evaluation, and Mitigation [47.770531682802314]
単純なプロンプトであっても、T2Iモデルは生成された画像に顕著な社会的偏見を示す可能性がある。
本研究は,T2I生成モデルにおけるバイアスに関する最初の広範な調査である。
これらの作業がどのようにしてバイアスの異なる側面を定義し、評価し、緩和するかについて議論する。
論文 参考訳(メタデータ) (2024-04-01T10:19:05Z) - Data-Driven Analysis of Gender Fairness in the Software Engineering
Academic Landscape [4.580653005421453]
本研究では,情報学(INF)およびソフトウェア工学(SE)イタリアのコミュニティにおける,学術的昇進におけるジェンダーバイアスの問題について検討する。
我々はまず,学界におけるジェンダーバイアスの問題がこれまでどのように対処されてきたかを評価するために文献レビューを実施している。
次に、イタリアの学術振興におけるジェンダーバイアスの分析に必要なINFとSEデータを収集・前処理するプロセスについて述べる。
実施した分析から,SEコミュニティが助教授への昇進のバイアスが高いこと,全教授への昇進のバイアスがINFコミュニティ全体と比較して小さいことを観察した。
論文 参考訳(メタデータ) (2023-09-20T12:04:56Z) - Gender Inequalities: Women Researchers Require More Knowledge in
Specific and Experimental Topics [1.4916971861796386]
本研究は,地域とジェンダーのアイデンティティ,トピック,知識状態の関係を分析する。
男女不平等は地域特有の特徴とグローバルな共通パターンの両方にマージされている。
論文 参考訳(メタデータ) (2023-09-05T05:36:06Z) - Unveiling Gender Bias in Terms of Profession Across LLMs: Analyzing and
Addressing Sociological Implications [0.0]
この研究は、AI言語モデルにおけるジェンダーバイアスに関する既存の研究を調査し、現在の知識のギャップを特定する。
この結果は,大規模言語モデルのアウトプットに存在する,ジェンダー付き単語関連,言語使用,偏見付き物語に光を当てた。
本稿では,アルゴリズムアプローチやデータ拡張手法など,LSMにおける性別バイアスを低減するための戦略を提案する。
論文 参考訳(メタデータ) (2023-07-18T11:38:45Z) - Dynamics of Gender Bias in Computing [0.0]
本稿では、米国政府の労働統計が薄く、あるいは存在しないときに、職業としてのフォーマティブな年月(1950-1980)に焦点を当てた新しいデータセットを提示する。
1960年代から1970年代にかけてのコンピュータ科学の専門化において、コンピューティングにおける性バイアスが出現したとの予想が再燃した。
論文 参考訳(メタデータ) (2022-11-07T23:29:56Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。