論文の概要: Twitter-Based Gender Recognition Using Transformers
- arxiv url: http://arxiv.org/abs/2205.06801v1
- Date: Sun, 24 Apr 2022 19:58:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 12:17:50.339288
- Title: Twitter-Based Gender Recognition Using Transformers
- Title(参考訳): トランスフォーマーを用いたtwitterに基づく性別認識
- Authors: Zahra Movahedi Nia, Ali Ahmadi, Bruce Mellado, Jianhong Wu, James
Orbinski, Ali Agary, Jude Dzevela Kong
- Abstract要約: 画像やつぶやきからユーザの性別を予測するためのトランスフォーマーに基づくモデルを提案する。
そこで我々は,2方向変換(ViTBERT)に基づく別のモデルを微調整し,ユーザの性別をつぶやきで認識する。
組み合わせモデルは画像分類モデルとテキスト分類モデルの精度をそれぞれ6.98%と4.43%改善する。
- 参考スコア(独自算出の注目度): 2.539920413471809
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Social media contains useful information about people and the society that
could help advance research in many different areas (e.g. by applying opinion
mining, emotion/sentiment analysis, and statistical analysis) such as business
and finance, health, socio-economic inequality and gender vulnerability. User
demographics provide rich information that could help study the subject
further. However, user demographics such as gender are considered private and
are not freely available. In this study, we propose a model based on
transformers to predict the user's gender from their images and tweets. We
fine-tune a model based on Vision Transformers (ViT) to stratify female and
male images. Next, we fine-tune another model based on Bidirectional Encoders
Representations from Transformers (BERT) to recognize the user's gender by
their tweets. This is highly beneficial, because not all users provide an image
that indicates their gender. The gender of such users could be detected form
their tweets. The combination model improves the accuracy of image and text
classification models by 6.98% and 4.43%, respectively. This shows that the
image and text classification models are capable of complementing each other by
providing additional information to one another. We apply our method to the
PAN-2018 dataset, and obtain an accuracy of 85.52%.
- Abstract(参考訳): ソーシャルメディアには、ビジネスや金融、健康、社会経済的不平等、性別の脆弱性など、さまざまな分野(例えば、意見マイニング、感情/感情分析、統計分析など)の研究を進める上で役立つ人や社会に関する有用な情報が含まれている。
ユーザーの人口統計は、さらに研究に役立つ豊富な情報を提供する。
しかし、性別などのユーザー人口統計は非公開であり、自由に利用できない。
本研究では,ユーザの性別を画像やツイートから予測するトランスフォーマーに基づくモデルを提案する。
視覚トランスフォーマー(vit)に基づくモデルを微調整し,男女画像の階層化を行う。
次に、トランスフォーマー(bert)からの双方向エンコーダ表現に基づく別のモデルを微調整し、ユーザの性別をツイートで認識する。
なぜなら、すべてのユーザーが性別を示す画像を提供するわけではないからだ。
このようなユーザーの性別は、ツイートによって検出できる。
組み合わせモデルは画像分類モデルとテキスト分類モデルの精度をそれぞれ6.98%と4.43%改善する。
これは画像とテキストの分類モデルが互いに追加情報を提供することで相互補完できることを示す。
本手法をPAN-2018データセットに適用し,85.52%の精度を得る。
関連論文リスト
- The Male CEO and the Female Assistant: Evaluation and Mitigation of Gender Biases in Text-To-Image Generation of Dual Subjects [58.27353205269664]
本稿では,Paired Stereotype Test (PST) フレームワークを提案する。
PSTクエリT2Iモデルは、男性ステレオタイプと女性ステレオタイプに割り当てられた2つの個人を描写する。
PSTを用いて、ジェンダーバイアスの2つの側面、つまり、ジェンダーの職業におけるよく知られたバイアスと、組織力におけるバイアスという新しい側面を評価する。
論文 参考訳(メタデータ) (2024-02-16T21:32:27Z) - VisoGender: A dataset for benchmarking gender bias in image-text pronoun
resolution [80.57383975987676]
VisoGenderは、視覚言語モデルで性別バイアスをベンチマークするための新しいデータセットである。
We focus to occupation-related biases in a hegemonic system of binary gender, inspired by Winograd and Winogender schemas。
我々は、最先端の視覚言語モデルをいくつかベンチマークし、それらが複雑な場面における二項性解消のバイアスを示すことを発見した。
論文 参考訳(メタデータ) (2023-06-21T17:59:51Z) - Stereotypes and Smut: The (Mis)representation of Non-cisgender
Identities by Text-to-Image Models [6.92043136971035]
マルチモーダルモデルが男女同一性をどのように扱うかを検討する。
特定の非シスジェンダーのアイデンティティは、人間より少なく、ステレオタイプで、性的にも、一貫して(ミス)表現されている。
これらの改善は、影響のあるコミュニティによって変革が導かれる未来への道を開く可能性がある。
論文 参考訳(メタデータ) (2023-05-26T16:28:49Z) - Auditing Gender Presentation Differences in Text-to-Image Models [54.16959473093973]
我々は、テキスト・ツー・イメージ・モデルにおいて、ジェンダーがどのように異なる形で提示されるかを研究する。
入力テキスト中の性指標を探索することにより、プレゼンテーション中心属性の周波数差を定量化する。
このような違いを推定する自動手法を提案する。
論文 参考訳(メタデータ) (2023-02-07T18:52:22Z) - Gender Artifacts in Visual Datasets [34.74191865400569]
大規模なビジュアルデータセット内には、$textitgender アーティファクト$が何であるかを調査する。
性別のアーティファクトは、COCOとOpenImagesのデータセットでユビキタスであることが分かりました。
このようなデータセットから性別のアーティファクトを取り除こうとする試みは、ほぼ不可能である、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-18T12:09:19Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Gender prediction using limited Twitter Data [0.0]
本稿では,ソーシャルメディア上でのジェンダー予測におけるBERT(単語埋め込み用トランスフォーマーモデル)の有用性について検討する。
オランダのBERTモデルは、性別をラベル付けしたオランダのTwitterデータセットの異なるサンプルに基づいて微調整される。
その結果、比較的少量のデータであっても、BERTを微調整してTwitterユーザーの性別を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2020-09-29T11:46:07Z) - Mitigating Gender Bias in Captioning Systems [56.25457065032423]
ほとんどのキャプションモデルは性別バイアスを学習し、特に女性にとって高い性別予測エラーにつながる。
本稿では, 視覚的注意を自己指導し, 正しい性的な視覚的証拠を捉えるためのガイド付き注意画像キャプチャーモデル(GAIC)を提案する。
論文 参考訳(メタデータ) (2020-06-15T12:16:19Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z) - Large-scale Gender/Age Prediction of Tumblr Users [5.063421139422184]
年齢・性別予測のためのグラフベースおよび深層学習モデルを提案する。
グラフベースモデルでは,ネットワーク埋め込みとラベル伝搬という2つのアプローチで接続特性を生成する。
ディープラーニングモデルでは、畳み込みニューラルネットワーク(CNN)と多層パーセプトロン(MLP)を利用して、ユーザの年齢と性別を予測する。
論文 参考訳(メタデータ) (2020-01-02T19:01:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。