論文の概要: Towards Lexical Gender Inference: A Scalable Methodology using Online
Databases
- arxiv url: http://arxiv.org/abs/2206.14055v1
- Date: Tue, 28 Jun 2022 14:57:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-01 09:29:11.228837
- Title: Towards Lexical Gender Inference: A Scalable Methodology using Online
Databases
- Title(参考訳): 語彙性推論に向けて:オンラインデータベースを用いたスケーラブルな方法論
- Authors: Marion Bartl and Susan Leavy
- Abstract要約: 大規模言語データセットにおいて,語彙性のある単語を自動的に検出する手法を提案する。
本手法は,Wikipediaのサンプルからランダムに検索した名詞の語彙性を決定する際に80%以上の精度に達する。
- 参考スコア(独自算出の注目度): 3.0839245814393723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new method for automatically detecting words with
lexical gender in large-scale language datasets. Currently, the evaluation of
gender bias in natural language processing relies on manually compiled lexicons
of gendered expressions, such as pronouns ('he', 'she', etc.) and nouns with
lexical gender ('mother', 'boyfriend', 'policewoman', etc.). However, manual
compilation of such lists can lead to static information if they are not
periodically updated and often involve value judgments by individual annotators
and researchers. Moreover, terms not included in the list fall out of the range
of analysis. To address these issues, we devised a scalable, dictionary-based
method to automatically detect lexical gender that can provide a dynamic,
up-to-date analysis with high coverage. Our approach reaches over 80% accuracy
in determining the lexical gender of nouns retrieved randomly from a Wikipedia
sample and when testing on a list of gendered words used in previous research.
- Abstract(参考訳): 本稿では,大規模言語データセットにおける語彙性のある単語を自動的に検出する手法を提案する。
現在、自然言語処理におけるジェンダーバイアスの評価は、代名詞(「彼」・「彼女」など)や語彙的ジェンダー(「母」・「ボーイフレンド」・「政治家」など)などの人手による性表現の語彙に依存している。
しかし、これらのリストの手動コンパイルは、定期的に更新されず、個々の注釈家や研究者による価値判断を伴う場合、静的な情報に繋がる可能性がある。
さらに、リストに含まれていない用語は、分析の範囲から外れます。
これらの問題に対処するために、我々は、動的で最新の分析を高いカバレッジで提供できる語彙性を自動的に検出するスケーラブルな辞書ベースの方法を開発した。
提案手法は,wikipediaのサンプルからランダムに検索された名詞の語彙的性別を判定し,前回の研究で使用した単語のリスト上でテストする場合,80%以上の精度に達する。
関連論文リスト
- Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Social Biases in Automatic Evaluation Metrics for NLG [53.76118154594404]
本稿では,単語埋め込みアソシエーションテスト(WEAT)と文埋め込みアソシエーションテスト(SEAT)に基づく評価手法を提案する。
我々は、画像キャプションやテキスト要約タスクにおける性別バイアスの影響を調査するために、性別対応メタ評価データセットを構築した。
論文 参考訳(メタデータ) (2022-10-17T08:55:26Z) - LEXpander: applying colexification networks to automated lexicon
expansion [0.16804697591495946]
LEXpander は,新しいコネクティフィケーションデータを活用する辞書拡張手法である。
LEXpanderは,単語リストの精度とリコールのトレードオフの両面から,既存の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-05-31T14:55:29Z) - Gender Bias in Text: Labeled Datasets and Lexicons [0.30458514384586394]
性別バイアスの自動検出には、性別バイアスデータセットと語彙の欠如がある。
関連文の収集,注釈付け,拡張によりラベル付きデータセットと網羅的辞書を提供する。
リリースされたデータセットとレキシコンは、Generic He、Generic She、Explicit Marking of Sex、Gendered Neologismsなど、複数のバイアスサブタイプにまたがっている。
論文 参考訳(メタデータ) (2022-01-21T12:44:51Z) - Generating Gender Augmented Data for NLP [3.5557219875516655]
ジェンダーバイアスは、NLPベースのアプリケーション、特に性差のある言語で頻繁に発生する。
本稿では,会話文の自動書き直し手法を提案する。
提案するアプローチは、あるジェンダーから別のジェンダーへの"翻訳"を訓練されたニューラルマシン翻訳(NMT)システムに基づいている。
論文 参考訳(メタデータ) (2021-07-13T11:13:21Z) - Fake it Till You Make it: Self-Supervised Semantic Shifts for
Monolingual Word Embedding Tasks [58.87961226278285]
語彙意味変化をモデル化するための自己教師付きアプローチを提案する。
本手法は,任意のアライメント法を用いて意味変化の検出に利用できることを示す。
3つの異なるデータセットに対する実験結果を用いて,本手法の有用性について述べる。
論文 参考訳(メタデータ) (2021-01-30T18:59:43Z) - Investigating Gender Bias in BERT [22.066477991442003]
我々は、感情や感情の強さの予測に関連する5つの下流タスクにおいて、それが引き起こすジェンダーバイアスを分析した。
本稿では,各BERT層に対する1つの主方向という,きめ細かい性別方向を求めるアルゴリズムを提案する。
実験により, 下流タスクにおけるBERT誘発バイアスの低減に成功していることがわかった。
論文 参考訳(メタデータ) (2020-09-10T17:38:32Z) - Double-Hard Debias: Tailoring Word Embeddings for Gender Bias Mitigation [94.98656228690233]
本稿では,性別サブスペースの推測と削除に先立って,コーパス正規性に対する単語埋め込みを浄化する手法を提案する。
本手法は,事前学習した単語埋め込みの分布的意味を保ちつつ,性別バイアスを従来の手法よりもはるかに大きい程度に低減する。
論文 参考訳(メタデータ) (2020-05-03T02:33:20Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。