論文の概要: Myers-Briggs personality classification from social media text using
pre-trained language models
- arxiv url: http://arxiv.org/abs/2207.04476v1
- Date: Sun, 10 Jul 2022 14:38:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 06:01:06.550868
- Title: Myers-Briggs personality classification from social media text using
pre-trained language models
- Title(参考訳): 事前学習した言語モデルを用いたソーシャルメディアテキストからのmyers-briggsパーソナリティ分類
- Authors: Vitor Garcia dos Santos, Ivandr\'e Paraboni
- Abstract要約: 本稿では, MBTI分類を行うために, BERTモデルによる双方向表現を微調整した一連の実験について述べる。
本研究の主目的は, 単語のバッグや静的な単語の埋め込みなどに基づいて, テキスト分類モデルの性能を著しく向上させることである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In Natural Language Processing, the use of pre-trained language models has
been shown to obtain state-of-the-art results in many downstream tasks such as
sentiment analysis, author identification and others. In this work, we address
the use of these methods for personality classification from text. Focusing on
the Myers-Briggs (MBTI) personality model, we describe a series of experiments
in which the well-known Bidirectional Encoder Representations from Transformers
(BERT) model is fine-tuned to perform MBTI classification. Our main findings
suggest that the current approach significantly outperforms well-known text
classification models based on bag-of-words and static word embeddings alike
across multiple evaluation scenarios, and generally outperforms previous work
in the field.
- Abstract(参考訳): 自然言語処理では、感情分析や著者識別など、下流の多くのタスクにおいて、事前学習された言語モデルの使用が最先端の結果を得ることが示されている。
本稿では,テキストからのパーソナリティ分類におけるこれらの手法の利用について述べる。
マイヤーズ・ブリッグス(MBTI)パーソナリティモデルに焦点をあて、よく知られた変換器(BERT)モデルからの双方向エンコーダ表現を細調整してMBTI分類を行う一連の実験について述べる。
本手法は,複数の評価シナリオにまたがって,単語のバッグ・オブ・ワードや静的単語の埋め込みに基づくテキスト分類モデルよりも優れており,一般的に現場での作業よりも優れていた。
関連論文リスト
- Ensembling Finetuned Language Models for Text Classification [55.15643209328513]
ファインタニング(英: Finetuning)は、特定のタスクに事前訓練されたモデルを適用するために、様々なコミュニティで一般的なプラクティスである。
ニューラルネットワークのアンサンブルは、通常、パフォーマンスを高め、信頼性の高い不確実性推定を提供するために使用される。
6つのデータセット上の5つの大きめのモデルから予測されたメタデータセットを提示し、異なるアンサンブル戦略の結果を報告する。
論文 参考訳(メタデータ) (2024-10-25T09:15:54Z) - Fuzzy Fingerprinting Transformer Language-Models for Emotion Recognition
in Conversations [0.7874708385247353]
会話における感情認識(ERC)を実現するための2つのアプローチを組み合わせることを提案する。
我々は,事前に訓練したRoBERTaに発話と以前の会話のターンを供給し,文脈的埋め込み発話表現を得る。
広く使われているDailyDialog ERCベンチマークデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-09-08T12:26:01Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - Pushing on Personality Detection from Verbal Behavior: A Transformer
Meets Text Contours of Psycholinguistic Features [27.799032561722893]
テキストデータから人格特性を予測する上で,2つの大きな改善点を報告する。
精神言語学的特徴のテキスト内分布を学習した,事前学習型トランスフォーマー言語モデルBERTと双方向長短期記憶ネットワークを統合した。
2つのベンチマークデータセット上に構築したモデルの性能を評価する。
論文 参考訳(メタデータ) (2022-04-10T08:08:46Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Extending the Abstraction of Personality Types based on MBTI with
Machine Learning and Natural Language Processing [0.0]
MBTIに基づく人格型予測のための自然言語処理(NLP)を用いたデータ中心型アプローチ
実験は、積み重ねられたモデルの堅牢なベースラインを持っていた。
その結果、データ反復ループへの注目は、より関連性の高い/重要なリソースの抽象化のための品質、説明力、代表性に焦点が当てられた。
論文 参考訳(メタデータ) (2021-05-25T10:00:16Z) - Personality Trait Detection Using Bagged SVM over BERT Word Embedding
Ensembles [10.425280599592865]
本稿では,テキストからの人格自動検出のための新しい深層学習手法を提案する。
我々は、自然言語理解における最先端技術、すなわちBERT言語モデルを活用して、文脈化された単語埋め込みを抽出する。
我々のモデルは、従来の最先端技術よりも1.04%優れており、同時に、トレーニングの計算効率も大幅に向上している。
論文 参考訳(メタデータ) (2020-10-03T09:25:51Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。