論文の概要: Predicting gender of Brazilian names using deep learning
- arxiv url: http://arxiv.org/abs/2106.10156v1
- Date: Fri, 18 Jun 2021 14:45:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-21 14:26:50.792979
- Title: Predicting gender of Brazilian names using deep learning
- Title(参考訳): 深層学習によるブラジル人の名前の性別予測
- Authors: Rosana C. B. Rego, Ver\^onica M. L. Silva
- Abstract要約: 一部の機械学習アルゴリズムは、この予測を十分に実行することができる。
ブラジル名のデータセットを使用して、モデルをトレーニングし、評価する。
一部のモデルは、90%以上のケースで正確に性別を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predicting gender by the name is not a simple task. In many applications,
especially in the natural language processing (NLP) field, this task may be
necessary, mainly when considering foreign names. Some machine learning
algorithms can satisfactorily perform the prediction. In this paper, we
examined and implemented feedforward and recurrent deep neural network models,
such as MLP, RNN, GRU, CNN, and BiLSTM, to classify gender through the first
name. A dataset of Brazilian names is used to train and evaluate the models. We
analyzed the accuracy, recall, precision, and confusion matrix to measure the
models' performances. The results indicate that the gender prediction can be
performed from the feature extraction strategy looking at the names as a set of
strings. Some models accurately predict the gender in more than 90% of the
cases. The recurrent models overcome the feedforward models in this binary
classification problem.
- Abstract(参考訳): 名前による性別の予測は簡単な作業ではありません。
多くのアプリケーション、特に自然言語処理(NLP)分野において、このタスクは、主に外国の名前を考える際に必要となる。
一部の機械学習アルゴリズムは、十分に予測を実行できる。
本稿では、MLP、RNN、GRU、CNN、BiLSTMなどのフィードフォワードおよびリカレントディープニューラルネットワークモデルを用いて、性別をファーストネームで分類し、実装した。
モデルのトレーニングと評価にはブラジル人の名前のデータセットが使用される。
モデルの性能を測定するために,精度,リコール,精度,混乱行列を分析した。
その結果,文字列集合として名前を見る特徴抽出戦略から性別予測が可能となった。
一部のモデルは、90%以上のケースで正確に性別を予測する。
繰り返しモデルはこのバイナリ分類問題においてフィードフォワードモデルを克服する。
関連論文リスト
- Beyond Binary Gender Labels: Revealing Gender Biases in LLMs through Gender-Neutral Name Predictions [5.896505047270243]
我々は、大きな言語モデルにおける潜在的な性バイアスについて研究し、対処するために、さらにジェンダーカテゴリー、すなわち「中立」を導入する。
性別予測の精度を高めるために出生年を増やすことの影響について検討する。
論文 参考訳(メタデータ) (2024-07-07T05:59:09Z) - Multicultural Name Recognition For Previously Unseen Names [65.268245109828]
本論文は、人名の認識を改善することを目的としており、それは、誰かが生まれたり、名前を変えたりする際にも、成長できる多様なカテゴリーである。
私は103か国の名前を見て、モデルが異なる文化の名前でどれだけうまく機能するかを比較します。
文字入力と単語入力を組み合わせたモデルの方が単語のみのモデルより優れており,従来のNERモデルと比較して精度が向上する可能性がある。
論文 参考訳(メタデータ) (2024-01-23T17:58:38Z) - Improving Gender Fairness of Pre-Trained Language Models without
Catastrophic Forgetting [88.83117372793737]
元のトレーニングデータに情報を埋め込むことは、モデルの下流のパフォーマンスを大きなマージンで損なう可能性がある。
本稿では,GEnder Equality Prompt(GEEP)を提案する。
論文 参考訳(メタデータ) (2021-10-11T15:52:16Z) - First the worst: Finding better gender translations during beam search [19.921216907778447]
文法的ジェンダー翻訳における体系的誤りによるジェンダーバイアスに着目した。
ソース文から自動的に得られる性別特徴を用いて,nbestリストのランク付け実験を行った。
これらの技術を組み合わせることで、追加のバイリンガルデータや追加のNMTモデルを必要としないWinoMT精度が大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T12:53:30Z) - What's in a Name? -- Gender Classification of Names with Character Based
Machine Learning Models [6.805167389805055]
本稿では,登録ユーザの性別を宣言された名前に基づいて予測する問題を考察する。
1億人以上の利用者のファーストネームを分析したところ、性別は名前文字列の合成によって非常に効果的に分類できることがわかった。
論文 参考訳(メタデータ) (2021-02-07T01:01:32Z) - The Gap on GAP: Tackling the Problem of Differing Data Distributions in
Bias-Measuring Datasets [58.53269361115974]
バイアスモデルを検出する診断データセットは、自然言語処理におけるバイアス低減の重要な前提条件である。
収集されたデータの望ましくないパターンは、そのようなテストを誤ったものにします。
実験データにおけるそのようなパターンに対処するために, 実験サンプルを重み付けする理論的基礎的手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T16:50:13Z) - Gender Prediction Based on Vietnamese Names with Machine Learning
Techniques [2.7528170226206443]
ベトナム語名に基づくジェンダー予測のための新しいデータセットを提案する。
このデータセットは、性別で注釈付けされた26,000以上のフルネームで構成されている。
本稿では、6つの機械学習アルゴリズムと、ベトナム語の性別予測のための高速テキスト単語埋め込みを用いた深層学習モデル(LSTM)について述べる。
論文 参考訳(メタデータ) (2020-10-21T09:25:48Z) - Investigating Gender Bias in BERT [22.066477991442003]
我々は、感情や感情の強さの予測に関連する5つの下流タスクにおいて、それが引き起こすジェンダーバイアスを分析した。
本稿では,各BERT層に対する1つの主方向という,きめ細かい性別方向を求めるアルゴリズムを提案する。
実験により, 下流タスクにおけるBERT誘発バイアスの低減に成功していることがわかった。
論文 参考訳(メタデータ) (2020-09-10T17:38:32Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Parameter Space Factorization for Zero-Shot Learning across Tasks and
Languages [112.65994041398481]
本稿では,ニューラルパラメータの空間に対するベイズ生成モデルを提案する。
タスク言語の組み合わせから得られたデータに基づいて、そのような潜伏変数よりも後部を推測する。
我々のモデルは、最先端のゼロショットの言語間転送手法よりも、同等か良い結果が得られる。
論文 参考訳(メタデータ) (2020-01-30T16:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。