論文の概要: BIG5-TPoT: Predicting BIG Five Personality Traits, Facets, and Items Through Targeted Preselection of Texts
- arxiv url: http://arxiv.org/abs/2511.09426v1
- Date: Thu, 13 Nov 2025 01:53:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.564191
- Title: BIG5-TPoT: Predicting BIG Five Personality Traits, Facets, and Items Through Targeted Preselection of Texts
- Title(参考訳): BIG5-TPoT:テキストのターゲット選択によるBIG5人格・顔・項目の予測
- Authors: Triet M. Le, Arjun Chandra, C. Anton Rytting, Valerie P. Karuzis, Vladimir Rife, William A. Simpson,
- Abstract要約: テキストのターゲティング・プレセレクション(TPoT)と呼ばれる新しい戦略を導入する。
この方法は、ビッグファイブの性格特性、顔、またはアイテムを予測するために特別に設計された深層学習モデルへの入力としてテキストを意味的にフィルタリングする。
- 参考スコア(独自算出の注目度): 1.3995282831965226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting an individual's personalities from their generated texts is a challenging task, especially when the text volume is large. In this paper, we introduce a straightforward yet effective novel strategy called targeted preselection of texts (TPoT). This method semantically filters the texts as input to a deep learning model, specifically designed to predict a Big Five personality trait, facet, or item, referred to as the BIG5-TPoT model. By selecting texts that are semantically relevant to a particular trait, facet, or item, this strategy not only addresses the issue of input text limits in large language models but also improves the Mean Absolute Error and accuracy metrics in predictions for the Stream of Consciousness Essays dataset.
- Abstract(参考訳): 生成したテキストから個人の個性を予測することは、特にテキストボリュームが大きい場合、困難な作業である。
本稿では,テキストのターゲティング・プレセレクション(TPoT)と呼ばれる,単純かつ効果的な新規戦略を提案する。
この方法は、BIG5-TPoTモデルと呼ばれるビッグファイブの性格特性、顔、またはアイテムを予測するために特別に設計されたディープラーニングモデルへの入力としてテキストを意味的にフィルタリングする。
特定の特徴、ファセット、項目に意味のあるテキストを選択することで、この戦略は、大きな言語モデルにおける入力テキスト制限の問題に対処するだけでなく、Mean Absolute Errorと、Stream of Consciousness Essaysデータセットの予測における精度メトリクスを改善します。
関連論文リスト
- When Personalization Tricks Detectors: The Feature-Inversion Trap in Machine-Generated Text Detection [64.23509202768945]
パーソナライズされた設定における検出ロバスト性を評価するための最初のベンチマークであるデータセットを紹介する。
実験により, 個別設定における検出器間の性能差が大きいことが示された。
パーソナライズされた設定における検出性能変化を簡易かつ信頼性の高い予測方法を提案する。
論文 参考訳(メタデータ) (2025-10-14T13:10:23Z) - Beyond Token Limits: Assessing Language Model Performance on Long Text Classification [0.0]
我々は,XLM-RoBERTa,Longformer,GPT-3.5,GPT-4の5言語を対象に,比較Agendasプロジェクトのマルチクラス分類タスクについて実験を行った。
その結果、ロングフォーマーモデルには特に利点がなく、特にロングインプットを扱うために事前訓練されている。
クラスレベルの要因の分析は、長いテキスト入力のパフォーマンスに関して、特定のカテゴリ間のサポートと物質重なりが重要であることを示唆している。
論文 参考訳(メタデータ) (2025-09-12T12:47:28Z) - Discourse Features Enhance Detection of Document-Level Machine-Generated Content [53.41994768824785]
機械生成コンテンツは、学術プラジャリズムや誤報の拡散といった課題を提起する。
既存のMGC検出器は、しばしば表面レベルの情報のみに焦点を当て、暗黙的かつ構造的な特徴を見渡す。
これらの課題を克服するために、新しい方法論とデータセットを導入します。
論文 参考訳(メタデータ) (2024-12-17T08:47:41Z) - 5W1H Extraction With Large Language Models [27.409473072672277]
5W1Hフレームワークによる重要なニュース要素の抽出は、イベント抽出とテキスト要約に不可欠である。
ChatGPTは、より長いニューステキストの処理やコンテキスト内の特定の属性の分析において問題に直面している。
我々は、ゼロショット/ファウショットからのいくつかの戦略を設計し、より効率的な微調整を行い、元のニュース文書から5W1Hアスペクトを抽出する。
論文 参考訳(メタデータ) (2024-05-25T09:42:58Z) - GPT-Sentinel: Distinguishing Human and ChatGPT Generated Content [27.901155229342375]
本稿では,言語モデルを用いたChatGPT生成対人文テキストの検出手法を提案する。
テストデータセットの精度は97%以上で,さまざまな指標から評価した。
論文 参考訳(メタデータ) (2023-05-13T17:12:11Z) - AugGPT: Leveraging ChatGPT for Text Data Augmentation [59.76140039943385]
本稿では,ChatGPT(AugGPT)に基づくテキストデータ拡張手法を提案する。
AugGPTはトレーニングサンプルの各文を、概念的には似ているが意味的に異なる複数のサンプルに言い換える。
数ショットの学習テキスト分類タスクの実験結果は、提案したAugGPTアプローチの優れた性能を示している。
論文 参考訳(メタデータ) (2023-02-25T06:58:16Z) - Classifiers are Better Experts for Controllable Text Generation [63.17266060165098]
提案手法は, PPLにおける最近のPPLM, GeDi, DExpertsよりも有意に優れており, 生成したテキストの外部分類器に基づく感情の精度が高いことを示す。
同時に、実装やチューニングも簡単で、制限や要件も大幅に少なくなります。
論文 参考訳(メタデータ) (2022-05-15T12:58:35Z) - SCROLLS: Standardized CompaRison Over Long Language Sequences [62.574959194373264]
SCROLLSは長いテキストに対する推論を必要とするタスクのスイートである。
SCROLLSには要約、質問応答、自然言語推論タスクが含まれる。
すべてのデータセットを統一されたテキスト・ツー・テキスト形式で利用可能にし、モデルアーキテクチャと事前学習方法の研究を容易にするために、ライブのリーダーボードをホストします。
論文 参考訳(メタデータ) (2022-01-10T18:47:15Z) - mT5: A massively multilingual pre-trained text-to-text transformer [60.0210636815514]
The Text-to-Text Transfer Transformer (T5) は、統一されたテキスト・トゥ・テキストフォーマットとスケールを利用して、英語のNLPタスクで最先端の結果を得る。
101言語をカバーする新しいCommon Crawlベースのデータセットで事前トレーニングを行ったマルチ言語版T5であるmT5を紹介する。
論文 参考訳(メタデータ) (2020-10-22T17:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。