論文の概要: Gender Disparities in StackOverflow's Community-Based Question Answering: A Matter of Quantity versus Quality
- arxiv url: http://arxiv.org/abs/2601.23063v1
- Date: Fri, 30 Jan 2026 15:16:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.519584
- Title: Gender Disparities in StackOverflow's Community-Based Question Answering: A Matter of Quantity versus Quality
- Title(参考訳): StackOverflowのコミュニティベースの質問に対する性差: 量と品質の問題
- Authors: Maddalena Amendola, Cosimo Rulli, Carlos Castillo, Andrea Passarella, Raffaele Perego,
- Abstract要約: 人間の評価と大規模言語モデルを用いた自動評価を組み合わせることで,回答の質が性別の影響を受けているかを検討する。
回答の質に有意な性別差は見られず、また、ベスト回答の選択に対する性別バイアスの実質的な影響もない」と述べた。
本結果は,コミュニティ質問応答プラットフォームにおけるスコアリングシステムの設計に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 7.02751685276625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Community Question-Answering platforms, such as Stack Overflow (SO), are valuable knowledge exchange and problem-solving resources. These platforms incorporate mechanisms to assess the quality of answers and participants' expertise, ideally free from discriminatory biases. However, prior research has highlighted persistent gender biases, raising concerns about the inclusivity and fairness of these systems. Addressing such biases is crucial for fostering equitable online communities. While previous studies focus on detecting gender bias by comparing male and female user characteristics, they often overlook the interaction between genders, inherent answer quality, and the selection of ``best answers'' by question askers. In this study, we investigate whether answer quality is influenced by gender using a combination of human evaluations and automated assessments powered by Large Language Models. Our findings reveal no significant gender differences in answer quality, nor any substantial influence of gender bias on the selection of ``best answers." Instead, we find that the significant gender disparities in SO's reputation scores are primarily attributable to differences in users' activity levels, e.g., the number of questions and answers they write. Our results have important implications for the design of scoring systems in community question-answering platforms. In particular, reputation systems that heavily emphasize activity volume risk amplifying gender disparities that do not reflect actual differences in answer quality, calling for more equitable design strategies.
- Abstract(参考訳): コミュニティ質問-Stack Overflow (SO)のような回答プラットフォームは、貴重な知識交換と問題解決リソースである。
これらのプラットフォームには、答えの質と参加者の専門知識を評価するメカニズムが組み込まれており、理想的には差別バイアスがない。
しかし、以前の研究では、永続的な性バイアスが強調され、これらのシステムの傾きと公平性に対する懸念が高まった。
このようなバイアスに対処することは、公平なオンラインコミュニティを育むために不可欠である。
過去の研究では、男女のユーザ特性を比較して性別バイアスを検出することに焦点が当てられていたが、ジェンダー間の相互作用、本質的な回答品質、質問者による「ベスト回答」の選択を見落としていることが多い。
本研究では,人的評価と大規模言語モデルを用いた自動評価を組み合わせることで,回答の質が性別の影響を受けているかを検討する。
以上の結果から,回答の質に有意な性別差は認められなかった。
「その代わり、SOの評判スコアにおける男女差の顕著な差は、主にユーザーの活動レベルの違いに起因する。例えば、質問の数や回答の数など。」
本結果は,コミュニティ質問応答プラットフォームにおけるスコアリングシステムの設計に重要な意味を持つ。
特に、活動量を大幅に強調する評価システムは、回答品質の実際の相違を反映しない性別格差を増幅し、より公平なデザイン戦略を要求する。
関連論文リスト
- Bias in Gender Bias Benchmarks: How Spurious Features Distort Evaluation [116.86965910589775]
対象物の10%だけをマスクしたり、背景が弱くぼやけたりといった、最小限の摂動でさえ、バイアススコアを劇的に変える可能性がある。
これは、現在のバイアス評価がモデル応答を、性別バイアスよりも刺激的な特徴に反映していることを示唆している。
論文 参考訳(メタデータ) (2025-09-09T11:14:11Z) - Do LLMs have a Gender (Entropy) Bias? [3.2225437367979763]
我々は,LLMが生み出す情報の量と,ユーザが質問した実際の質問に対する相違点として,エントロピーバイアスを定義し,研究する。
分析の結果,男女のLDM反応に有意な偏りは認められなかったことが示唆された。
2つの性別の反応を反復的にマージして最終的な結果を得る単純な偏りのアプローチを提案する。
論文 参考訳(メタデータ) (2025-05-24T23:06:41Z) - Exploring Gender Disparities in Automatic Speech Recognition Technology [22.729651340592586]
トレーニングデータにおいて、性別の表現によってパフォーマンスがどう異なるかを分析する。
以上の結果から,トレーニングデータにおける性別比とASR成績との複雑な相互作用が示唆された。
論文 参考訳(メタデータ) (2025-02-25T18:29:38Z) - GenderCARE: A Comprehensive Framework for Assessing and Reducing Gender Bias in Large Language Models [73.23743278545321]
大規模言語モデル(LLM)は、自然言語生成において顕著な能力を示してきたが、社会的バイアスを増大させることも観察されている。
GenderCAREは、革新的な基準、バイアス評価、リダクションテクニック、評価メトリクスを含む包括的なフレームワークである。
論文 参考訳(メタデータ) (2024-08-22T15:35:46Z) - Understanding and Addressing Gender Bias in Expert Finding Task [6.239590365208578]
本研究では,現在最先端のExpert Finding(EF)モデルにおける性別バイアスについて検討する。
その結果,評価指標と活動レベルに依存したモデルが男性ユーザにとって不相応に有利であることが判明した。
我々は、よりバランスの取れた事前処理戦略を取り入れたEFモデルの調整を提案し、コンテンツベースおよびソーシャルネットワークベースの情報を活用する。
論文 参考訳(メタデータ) (2024-07-07T11:35:23Z) - Diverse, but Divisive: LLMs Can Exaggerate Gender Differences in Opinion
Related to Harms of Misinformation [8.066880413153187]
本稿では,多言語モデル(LLM)が誤報の被害を評価する際に,様々なグループの視点を反映できるかどうかを検討する。
TopicMisinfoデータセットには,さまざまなトピックから160件のファクトチェックされたクレームが含まれている。
GPT 3.5-Turboは、経験的に観察された意見の男女差を反映するが、これらの差の程度を増幅する。
論文 参考訳(メタデータ) (2024-01-29T20:50:28Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Review-guided Helpful Answer Identification in E-commerce [38.276241153439955]
製品固有のコミュニティ質問応答プラットフォームは、潜在的な顧客の懸念に対処するのに大いに役立ちます。
このようなプラットフォーム上でユーザが提供する回答は、その品質に大きく違いがあります。
コミュニティからのヘルプフルネスの投票は、回答の全体的な品質を示すことができるが、しばしば欠落している。
論文 参考訳(メタデータ) (2020-03-13T11:34:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。