論文の概要: CultureBERT: Measuring Corporate Culture With Transformer-Based Language
Models
- arxiv url: http://arxiv.org/abs/2212.00509v4
- Date: Thu, 25 Jan 2024 14:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-26 18:48:52.143752
- Title: CultureBERT: Measuring Corporate Culture With Transformer-Based Language
Models
- Title(参考訳): CultureBERT: トランスフォーマーベースの言語モデルによる企業文化の測定
- Authors: Sebastian Koch and Stefan Pasch
- Abstract要約: 本稿では,テキスト文書から企業文化を計測する文献にトランスフォーマーに基づく言語モデルを提案する。
我々は、企業の企業文化に関するレビューが明らかにした情報に関して、人間の評価者によってラベル付けされた従業員レビューのユニークなデータセットをコンパイルする。
このデータセットを用いて、同じ分類タスクを実行するために、最先端のトランスフォーマーベースの言語モデルを微調整する。
- 参考スコア(独自算出の注目度): 1.3916985597492426
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces transformer-based language models to the literature
measuring corporate culture from text documents. We compile a unique data set
of employee reviews that were labeled by human evaluators with respect to the
information the reviews reveal about the firms' corporate culture. Using this
data set, we fine-tune state-of-the-art transformer-based language models to
perform the same classification task. In out-of-sample predictions, our
language models classify 17 to 30 percentage points more of employee reviews in
line with human evaluators than traditional approaches of text classification.
We make our models publicly available.
- Abstract(参考訳): 本稿では,テキスト文書から企業文化を測定する文献にトランスフォーマーに基づく言語モデルを導入する。
我々は、企業の企業文化に関するレビューが示す情報に関して、人的評価者によってラベル付けされた従業員レビューのユニークなデータセットをコンパイルします。
このデータセットを用いて、最先端のトランスフォーマーベースの言語モデルを微調整し、同じ分類タスクを実行する。
サンプル外の予測では、従来のテキスト分類のアプローチよりも、従業員レビューの17ポイントから30ポイントを、人的評価者に合わせて分類した。
モデルを公開しています。
関連論文リスト
- Disco-Bench: A Discourse-Aware Evaluation Benchmark for Language
Modelling [70.23876429382969]
本研究では,多種多様なNLPタスクに対して,文内談話特性を評価できるベンチマークを提案する。
ディスコ・ベンチは文学領域における9つの文書レベルのテストセットから構成されており、豊富な談話現象を含んでいる。
また,言語分析のために,対象モデルが談話知識を学習するかどうかを検証できる診断テストスイートを設計する。
論文 参考訳(メタデータ) (2023-07-16T15:18:25Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - PART: Pre-trained Authorship Representation Transformer [64.78260098263489]
文書を書く著者は、語彙、レジストリ、句読点、ミススペル、絵文字の使用など、テキスト内での識別情報をインプリントする。
以前の作品では、手作りのフィーチャや分類タスクを使用して著者モデルをトレーニングし、ドメイン外の著者に対するパフォーマンスの低下につながった。
セマンティクスの代わりにtextbfauthorship の埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Myers-Briggs personality classification from social media text using
pre-trained language models [0.0]
本稿では, MBTI分類を行うために, BERTモデルによる双方向表現を微調整した一連の実験について述べる。
本研究の主目的は, 単語のバッグや静的な単語の埋め込みなどに基づいて, テキスト分類モデルの性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-07-10T14:38:09Z) - Training Language Models with Natural Language Feedback [51.36137482891037]
3段階学習アルゴリズムを用いてモデル出力の言語フィードバックから学習する。
合成実験において、まず言語モデルがフィードバックを正確に組み込んで改良を行うかどうかを評価する。
人間の手書きフィードバックのサンプルは100程度しかなく, 学習アルゴリズムはGPT-3モデルを微調整し, ほぼ人間レベルの要約を行う。
論文 参考訳(メタデータ) (2022-04-29T15:06:58Z) - Detecting Text Formality: A Study of Text Classification Approaches [78.11745751651708]
本研究は,統計的,ニューラルベース,トランスフォーマーベースの機械学習手法に基づく形式性検出手法の体系的研究を初めて行う。
単言語,多言語,言語横断の3種類の実験を行った。
本研究は,モノリンガルおよび多言語形式分類タスクのためのトランスフォーマーベースモデルに対するChar BiLSTMモデルの克服を示す。
論文 参考訳(メタデータ) (2022-04-19T16:23:07Z) - StonkBERT: Can Language Models Predict Medium-Run Stock Price Movements? [0.0]
StonkBERTは従来の言語モデルに比べて予測精度が大幅に向上している。
性能シミュレーションは、これらの分類精度の改善が、平均的な株式市場のリターンにも影響していることを示している。
論文 参考訳(メタデータ) (2022-02-04T17:50:53Z) - TunBERT: Pretrained Contextualized Text Representation for Tunisian
Dialect [0.0]
表現不足言語に対するモノリンガルトランスフォーマーに基づく言語モデルのトレーニングの実現可能性について検討する。
構造化データの代わりにノイズの多いWebクローリングデータを使用することは、そのような非標準言語にとってより便利であることを示す。
我々の最高のパフォーマンスTunBERTモデルは、下流の3つのタスクすべてにおいて最先端のタスクに到達または改善します。
論文 参考訳(メタデータ) (2021-11-25T15:49:50Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Play the Shannon Game With Language Models: A Human-Free Approach to
Summary Evaluation [0.0]
本稿では,事前学習言語モデルを用いて文書と要約間で共有される情報を推定する,新たな要約評価指標を提案する。
これらのメトリクスは、数十年前に提案された品質スコアの要約方法であるShannon Gameの現代的な試みです。
紹介された指標が,カバレッジ,全体的な品質,5つの要約次元に基づいて,人間の判断と相関していることを実証的に検証した。
論文 参考訳(メタデータ) (2021-03-19T17:27:58Z) - On Predicting Personal Values of Social Media Users using
Community-Specific Language Features and Personal Value Correlation [14.12186042953335]
この研究は、シンガポールのユーザーの個人的価値を分析し、Facebookデータを用いて個人的価値を予測する効果的なモデルを開発することに焦点を当てている。
提案したスタックモデルには,基本モデルのタスク固有層とクロススティッチ層モデルからなる相関関係が組み込まれている。
論文 参考訳(メタデータ) (2020-07-16T04:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。