論文の概要: Gender Bias in Password Managers
- arxiv url: http://arxiv.org/abs/2206.14136v1
- Date: Mon, 30 May 2022 07:38:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 09:31:13.440615
- Title: Gender Bias in Password Managers
- Title(参考訳): パスワードマネージャにおけるジェンダーバイアス
- Authors: Jeff Yan and Dearbhla McCabe
- Abstract要約: 女性と男性が異なるタイプのパスワードマネージャーを好むだけでなく、女性と男性が頻繁に使用するソフトウェア機能も異なる。
便利さとブランドの選択は女性の配慮の頂点にあるが、セキュリティと特徴の数は男性にとって最上位である。
- 参考スコア(独自算出の注目度): 3.2192957564819795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For the first time, we report gender bias in people's choice and use of
password managers, through a semi-structured interview ($n=18$) and a
questionnaire-based survey ($n=200$, conducted `in the wild'). Not only do
women and men prefer different types of password managers, but software
features that women and men frequently use also differ. These differences are
statistically significant. The factors that women and men consider the most
important or influential in choosing their password managers differ, too.
Choice of convenience and brand are on the top of the women's consideration,
whereas security and the number of features top the list for men. This
difference is statistically significant.
- Abstract(参考訳): パスワードマネージャーの選択と利用における性別バイアスを,半構造化インタビュー(n=18$)とアンケートに基づく調査(n=200$, performed 'in the wild')を通じて初めて報告した。
女性と男性は異なるタイプのパスワードマネージャーを好むだけでなく、女性と男性が頻繁に使用するソフトウェア機能も異なる。
これらの違いは統計的に有意である。
女性や男性がパスワードマネージャーを選ぶ上で最も重要あるいは影響力があると考える要因も異なっている。
便利さとブランドの選択は女性の配慮の頂点にあるが、セキュリティと特徴の数は男性にとって最上位である。
この差は統計的に有意である。
関連論文リスト
- Evaluating Gender Bias in Large Language Models [0.8636148452563583]
本研究では,大規模言語モデル (LLMs) が職業文脈における代名詞選択における性別バイアスの程度について検討した。
対象とする職業は、男性に有意な存在感を持つものから女性に有意な集中力を持つものまで幅広い。
その結果, モデルの代名詞選択と, 労働力データに存在する性別分布との間には, 正の相関関係が認められた。
論文 参考訳(メタデータ) (2024-11-14T22:23:13Z) - The Second Round: Diverse Paths Towards Software Engineering [1.6863735232819916]
平均して、女性は男性よりもソフトウェア工学の研究に後で適用します。
ライブイベントやプラットフォームにおける個人的なガイダンスは、女性にとって最も影響力がある。
教師やソーシャルメディアは男性に大きな影響を与えている。
論文 参考訳(メタデータ) (2024-02-27T08:31:12Z) - The Impact of Debiasing on the Performance of Language Models in
Downstream Tasks is Underestimated [70.23064111640132]
我々は、幅広いベンチマークデータセットを用いて、複数の下流タスクのパフォーマンスに対するデバイアスの影響を比較した。
実験により、デバイアスの効果は全てのタスクにおいて一貫して見積もられていることが示されている。
論文 参考訳(メタデータ) (2023-09-16T20:25:34Z) - The Resume Paradox: Greater Language Differences, Smaller Pay Gaps [0.0]
我々は、この言葉を何百万人ものアメリカ人労働者の履歴書で分析し、労働者のジェンダーによる自己表現の違いが、収入の違いとどのように比較されるかを調べる。
米国の職業全体において、男女間の言語の違いは男女の賃金格差の11%に相当する。
男女間の言語差が2倍になれば、平均的な女性労働者の年収は2797ドルになる。
論文 参考訳(メタデータ) (2023-07-17T15:49:35Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Analysis of Male and Female Speakers' Word Choices in Public Speeches [0.0]
TED講義等の公的な住所における男女のプレゼンターの語選択について比較した。
以上の結果から, 男性話者は, 言語, 心理的, 認知的, 社会的な言葉を, 女性話者よりもはるかに多く使用していることが判明した。
論文 参考訳(メタデータ) (2022-11-11T17:30:28Z) - Quantifying Gender Bias Towards Politicians in Cross-Lingual Language
Models [104.41668491794974]
代名詞として政治家の名前を取り巻く言語モデルによって生成される形容詞と動詞の用法を定量化する。
死者や指定された言葉が男女の政治家と関連しているのに対し、美人や離婚といった特定の言葉が主に女性政治家に関係していることが判明した。
論文 参考訳(メタデータ) (2021-04-15T15:03:26Z) - Gender bias in magazines oriented to men and women: a computational
approach [58.720142291102135]
女性指向の雑誌の内容と男性指向の雑誌の内容を比較する。
トピック・モデリングの手法により、雑誌で議論されている主要なテーマを特定し、これらのトピックの存在が時間とともに雑誌間でどの程度異なるかを定量化する。
以上の結果から,セクシュアオブジェクトとしての家族,ビジネス,女性の出現頻度は,時間とともに消失する傾向にあることが示唆された。
論文 参考訳(メタデータ) (2020-11-24T14:02:49Z) - Gender Stereotype Reinforcement: Measuring the Gender Bias Conveyed by
Ranking Algorithms [68.85295025020942]
本稿では,性別ステレオタイプをサポートする検索エンジンの傾向を定量化するジェンダーステレオタイプ強化(GSR)尺度を提案する。
GSRは、表現上の害を定量化できる情報検索のための、最初の特別に調整された尺度である。
論文 参考訳(メタデータ) (2020-09-02T20:45:04Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。