論文の概要: Interacting with Masculinities: A Scoping Review
- arxiv url: http://arxiv.org/abs/2304.13558v1
- Date: Sat, 22 Apr 2023 08:51:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 14:10:48.512106
- Title: Interacting with Masculinities: A Scoping Review
- Title(参考訳): 男性とのインタラクション:スコーピングのレビュー
- Authors: Katie Seaborn
- Abstract要約: 我々は、人間性のジェンダーフルな性質を認識し、男性や男性らしさの回避を認め、女性やジェンダーフルな民族を中心的な俳優や変化の標的として負担するのを避ける必要がある。
本稿では,ACM Human Factors in Computing Systems 会議に提出された126件の論文のスクーピングレビューを通じて,HCIにおける男性学の30年の歴史について紹介する。
- 参考スコア(独自算出の注目度): 13.32560004325655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gender is a hot topic in the field of human-computer interaction (HCI). Work
has run the gamut, from assessing how we embed gender in our computational
creations to correcting systemic sexism, online and off. While gender is often
framed around women and femininities, we must recognize the genderful nature of
humanity, acknowledge the evasiveness of men and masculinities, and avoid
burdening women and genderful folk as the central actors and targets of change.
Indeed, critical voices have called for a shift in focus to masculinities, not
only in terms of privilege, power, and patriarchal harms, but also
participation, plurality, and transformation. To this end, I present a 30-year
history of masculinities in HCI work through a scoping review of 126 papers
published to the ACM Human Factors in Computing Systems (CHI) conference
proceedings. I offer a primer and agenda grounded in the CHI and extant
literatures to direct future work.
- Abstract(参考訳): ジェンダーは人間とコンピュータの相互作用(HCI)の分野でホットなトピックである。
私たちの計算生成物にジェンダーを埋め込む方法を評価することから、オンラインとオフのシステミック性差別を修正することに至るまで、作業は多岐にわたる。
ジェンダーは女性や女性を中心に構成されることが多いが、私たちは人類の性的な性質を認識し、男性や男らしさの回避を認め、女性や性的な人々を変化の中心的要因やターゲットとして負担することを避ける必要がある。
実際、批判的な声は、特権、権力、家父長の損害だけでなく、参加、複数、そして変革の観点から、男性性への焦点のシフトを要求している。
この目的のために、ACM Human Factors in Computing Systems (CHI) 会議に発行された126の論文のスコーピングレビューを通じて、HCIにおける30年間の男性学の歴史を紹介する。
私は、CHIと既存の文献に根ざしたプライマーとアジェンダを、今後の業務を指揮するために提供します。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - Think Before You Act: A Two-Stage Framework for Mitigating Gender Bias Towards Vision-Language Tasks [5.123567809055078]
視覚言語モデル(VLM)における性バイアスは、有害なステレオタイプや差別を強化することができる。
本稿では,ジェンダーバイアスを軽減するためのタスク依存生成フレームワークGAMAを提案する。
物語生成の際、GAMAは全面的だが性的に難解な物語を産み出す。
回答推論の間、GAMAは画像、生成された物語、タスク固有の質問プロンプトを統合し、異なる視覚言語タスクに対する回答を推測する。
論文 参考訳(メタデータ) (2024-05-27T06:20:58Z) - Exploring Gender Biases in Language Patterns of Human-Conversational
Agent Conversations [1.0878040851638]
この研究は、人間とCAの相互作用における性バイアスの影響を深く掘り下げることを目的としている。
それは、CAsのジェンダーデザインによって、既存のジェンダーバイアスがどのように引き起こされるかを理解することを目的としている。
本研究の目的は,CAsにおけるジェンダーの割り当てが適切かどうかを問う,会話エージェントの倫理的デザインを通知することである。
論文 参考訳(メタデータ) (2024-01-05T19:11:17Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - "I'm fully who I am": Towards Centering Transgender and Non-Binary
Voices to Measure Biases in Open Language Generation [69.25368160338043]
トランスジェンダーとノンバイナリ(TGNB)の個人は、日常生活から差別や排除を不当に経験している。
オープン・ランゲージ・ジェネレーションにおいて,経験豊富なTGNB人物の疎外化を取り巻く社会的現実がいかに貢献し,持続するかを評価する。
我々はTGNB指向のコミュニティからキュレートされたテンプレートベースの実世界のテキストのデータセットであるTANGOを紹介する。
論文 参考訳(メタデータ) (2023-05-17T04:21:45Z) - Transcending the "Male Code": Implicit Masculine Biases in NLP Contexts [10.036312061637764]
批判奨学金は、バーチャルアシスタント(VA)のトレーニングに使用されるデータセットにおける性バイアスの問題を高めた
自然言語処理(NLP)データセットを2つ検討した。
その結果、性差のある言語が存在する場合、性バイアス、特に男性性バイアスがあることがわかった。
我々は、男女間のあいまいな関係を網羅するAVAという新しい辞書を提供する。
論文 参考訳(メタデータ) (2023-04-22T03:53:24Z) - Much Ado About Gender: Current Practices and Future Recommendations for
Appropriate Gender-Aware Information Access [3.3903891679981593]
情報アクセス研究(と開発)は時にジェンダーを利用する。
この研究は、ジェンダーが何であるかの現在の理解と一致していないジェンダーについて様々な仮定を下している。
私たちがレビューするほとんどの論文は、性別が2つのカテゴリに分けることができないことを認めたとしても、性別のバイナリな概念に依存しています。
論文 参考訳(メタデータ) (2023-01-12T01:21:02Z) - Towards Understanding Gender-Seniority Compound Bias in Natural Language
Generation [64.65911758042914]
本研究では,事前学習したニューラルジェネレーションモデルにおける性別バイアスの程度に,高齢者がどのような影響を及ぼすかを検討する。
以上の結果から, GPT-2は, 両領域において, 女性を中年, 男性を中年として考えることにより, 偏見を増幅することが示された。
以上の結果から, GPT-2を用いて構築したNLPアプリケーションは, プロの能力において女性に害を与える可能性が示唆された。
論文 参考訳(メタデータ) (2022-05-19T20:05:02Z) - Implicit Gender Bias in Computer Science -- A Qualitative Study [3.158346511479111]
テックセクターにおけるジェンダーの多様性は、男女のバランスの取れた比率を作るのに十分である。
多くの女性にとって、コンピュータ科学へのアクセスは社会化、社会的、文化的、構造的な障害によって妨げられている。
コンピュータ科学の分野における接触の欠如は、潜在的な関心を発展または拡大させることを困難にしている。
論文 参考訳(メタデータ) (2021-07-04T13:30:26Z) - Towards Gender-Neutral Face Descriptors for Mitigating Bias in Face
Recognition [51.856693288834975]
最先端のディープネットワークは、顔認識のために訓練されている間、性別情報を暗黙的にエンコードする。
ジェンダーは顔を識別する上で重要な属性と見なされることが多い。
本稿では,顔ディスクリプタに存在する性別情報を減らすために,新たにAGENDA(Adversarial Gender De-biasing Algorithm)を提案する。
論文 参考訳(メタデータ) (2020-06-14T08:54:03Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。