論文の概要: PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection
- arxiv url: http://arxiv.org/abs/2310.20256v2
- Date: Sun, 5 Nov 2023 03:19:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 19:34:10.956529
- Title: PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection
- Title(参考訳): PsyCoT:パーソナリティ検出のための強力なチェーンとしての心理学的アンケート
- Authors: Tao Yang, Tianyuan Shi, Fanqi Wan, Xiaojun Quan, Qifan Wang, Bingzhe
Wu, Jiaxiang Wu
- Abstract要約: PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
- 参考スコア(独自算出の注目度): 50.66968526809069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models (LLMs), such as ChatGPT, have
showcased remarkable zero-shot performance across various NLP tasks. However,
the potential of LLMs in personality detection, which involves identifying an
individual's personality from their written texts, remains largely unexplored.
Drawing inspiration from Psychological Questionnaires, which are carefully
designed by psychologists to evaluate individual personality traits through a
series of targeted items, we argue that these items can be regarded as a
collection of well-structured chain-of-thought (CoT) processes. By
incorporating these processes, LLMs can enhance their capabilities to make more
reasonable inferences on personality from textual input. In light of this, we
propose a novel personality detection method, called PsyCoT, which mimics the
way individuals complete psychological questionnaires in a multi-turn dialogue
manner. In particular, we employ a LLM as an AI assistant with a specialization
in text analysis. We prompt the assistant to rate individual items at each turn
and leverage the historical rating results to derive a conclusive personality
preference. Our experiments demonstrate that PsyCoT significantly improves the
performance and robustness of GPT-3.5 in personality detection, achieving an
average F1 score improvement of 4.23/10.63 points on two benchmark datasets
compared to the standard prompting method. Our code is available at
https://github.com/TaoYang225/PsyCoT.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)の最近の進歩は、様々なNLPタスクで顕著なゼロショット性能を示した。
しかし、個性検出におけるllmの可能性は、個人のパーソナリティを書かれたテキストから識別することを含むが、ほとんど解明されていない。
心理学者が一連の対象項目を通じて個性特性を評価するために慎重に設計した心理学的アンケートからインスピレーションを得て、これらの項目はよく構造化されたCoTプロセスの集合と見なすことができると論じる。
これらのプロセスを組み込むことで、llmはテキスト入力からパーソナリティをより合理的に推論する能力を高めることができる。
そこで本研究では,マルチターン対話方式で個人が心理的質問紙を完結する方法を模倣した,新たなパーソナリティ検出手法であるpsycotを提案する。
特に,テキスト分析を専門とするAIアシスタントとしてLLMを採用している。
我々は,各ターンに個々の項目を評価させ,過去の評価結果を利用して決定的な人格選好を導出するように促す。
実験の結果、PsyCoTは人格検出におけるGPT-3.5の性能と堅牢性を大幅に向上し、2つのベンチマークデータセットの平均F1スコアは4.23/10.63ポイント向上した。
私たちのコードはhttps://github.com/TaoYang225/PsyCoT.comで利用可能です。
関連論文リスト
- Humanity in AI: Detecting the Personality of Large Language Models [0.0]
アンケートは大規模言語モデル(LLM)の個性を検出する一般的な方法である
本稿では,テキストマイニングとアンケート手法の組み合わせを提案する。
LLMのパーソナリティは、事前訓練されたデータから導かれる。
論文 参考訳(メタデータ) (2024-10-11T05:53:11Z) - Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues [63.936654900356004]
パーソナリティ認識は,対話やソーシャルメディア投稿などのユーザデータに含まれる性格特性を識別することを目的としている。
本稿では,人格特性の証拠として推論過程を明らかにすることを目的とした,説明可能な人格認識という新しい課題を提案する。
論文 参考訳(メタデータ) (2024-09-29T14:41:43Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - EERPD: Leveraging Emotion and Emotion Regulation for Improving Personality Detection [19.98674724777821]
EERPDと呼ばれる新しい人格検出手法を提案する。
本手法では,人格予測において,人格に強く相関する心理的概念である感情制御を導入する。
実験の結果,ERPDは人格検出の精度とロバスト性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-06-23T11:18:55Z) - Dynamic Generation of Personalities with Large Language Models [20.07145733116127]
Hypernetworks に基づく動的パーソナリティ生成手法である Dynamic Personality Generation (DPG) を導入する。
GPT-4にビッグファイブ・パーソナリティ理論を組み込んでパーソナリティアセスメント・マシンを形成する。
次に、この人格評価装置を用いて、スクリプトデータ中の対話を評価し、その結果、人格対話データセットを生成する。
論文 参考訳(メタデータ) (2024-04-10T15:17:17Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - Can ChatGPT Read Who You Are? [10.577227353680994]
チェコ語で書かれたテキストを代表とする総合的なユーザスタディの結果を155人のサンプルで報告した。
本研究は,ChatGPTによる性格特性推定と人間による評価とを比較し,テキストから人格特性を推定する際のChatGPTの競争性能を報告する。
論文 参考訳(メタデータ) (2023-12-26T14:43:04Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z) - Identifying and Manipulating the Personality Traits of Language Models [9.213700601337383]
言語モデルにおける知覚的パーソナリティが、言語生成において一貫して現れるかどうかを検討する。
BERT や GPT2 のような言語モデルでは、異なる文脈におけるパーソナライズマーカーの識別と反映が一貫して可能であることを示す。
この振る舞いは、非常に予測可能な方法で操作できる能力を示し、それらを人格の特徴を特定し、ダイアログシステムのようなアプリケーションにおけるペルソナを制御するツールとしてフレーム化します。
論文 参考訳(メタデータ) (2022-12-20T14:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。