論文の概要: Machine learning methods fail to provide cohesive atheoretical construction of personality traits from semantic embeddings
- arxiv url: http://arxiv.org/abs/2510.09739v1
- Date: Fri, 10 Oct 2025 17:29:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.604643
- Title: Machine learning methods fail to provide cohesive atheoretical construction of personality traits from semantic embeddings
- Title(参考訳): 機械学習手法は、意味的埋め込みから人格特性の密着的無理論的構成を提供するのに失敗する
- Authors: Ayoub Bouguettaya, Elizabeth M. Stuart,
- Abstract要約: この語彙仮説は、人格の特徴が言語でコード化され、ビッグファイブのようなモデルの基礎となっていることを示唆している。
我々は、機械学習を用いて古典形容詞リストからボトムアップパーソナリティモデルを作成し、その記述ユーティリティをBig Fiveと比較した。
本研究は,ビッグファイブの頑健さを実証し,人格の意味構造が文脈に依存していることを示唆する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The lexical hypothesis posits that personality traits are encoded in language and is foundational to models like the Big Five. We created a bottom-up personality model from a classic adjective list using machine learning and compared its descriptive utility against the Big Five by analyzing one million Reddit comments. The Big Five, particularly Agreeableness, Conscientiousness, and Neuroticism, provided a far more powerful and interpretable description of these online communities. In contrast, our machine-learning clusters provided no meaningful distinctions, failed to recover the Extraversion trait, and lacked the psychometric coherence of the Big Five. These results affirm the robustness of the Big Five and suggest personality's semantic structure is context-dependent. Our findings show that while machine learning can help check the ecological validity of established psychological theories, it may not be able to replace them.
- Abstract(参考訳): この語彙仮説は、人格の特徴が言語でコード化され、ビッグファイブのようなモデルの基礎となっていることを示唆している。
我々は、機械学習を使って古典的な形容詞リストからボトムアップのパーソナリティモデルを作成し、その説明ユーティリティを、100万のRedditコメントを分析してBig Fiveと比較した。
ビッグファイブ、特にアグリーブルネス、良心、神経主義は、これらのオンラインコミュニティのより強力で解釈可能な説明を提供した。
対照的に、我々の機械学習クラスタは意味のある区別を示さず、外転特性の回復に失敗し、ビッグファイブの心理的コヒーレンスを欠いていた。
これらの結果は、ビッグファイブの堅牢性を確認し、パーソナリティの意味構造が文脈に依存していることを示唆している。
その結果,機械学習は確立した心理学理論の生態学的妥当性を確認するのに有効であるが,それを置き換えることはできない可能性が示唆された。
関連論文リスト
- Scaling Personality Control in LLMs with Big Five Scaler Prompts [1.534667887016089]
制御可能なパーソナリティ特性を持つ大規模言語モデルを条件付けるための,プロンプトベースのフレームワークであるBig5-Scalerを提案する。
自然言語のプロンプトに数値特性値を埋め込むことで,学習を伴わずに微粒なパーソナリティ制御が可能となる。
論文 参考訳(メタデータ) (2025-08-08T09:11:05Z) - Machine Bullshit: Characterizing the Emergent Disregard for Truth in Large Language Models [57.834711966432685]
哲学者ハリー・フランクフルト(Harry Frankfurt)によって概念化されたブルシット(Bullshit)は、その真理の価値を問わない言明を指す。
本稿では,大言語モデルの真偽に対する無関心を定量化する新しい指標であるブルシット指数を紹介する。
我々は、政治的文脈で一般的な機械いじめを観察し、軽快な言葉が支配的な戦略である。
論文 参考訳(メタデータ) (2025-07-10T07:11:57Z) - Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires [3.6001840369062386]
この研究は、多種多様なシナリオにおける大規模言語モデルに心理学的ツールを適用し、パーソナリティプロファイルを生成する。
以上の結果から, LLMは, 同一モデル群においても, 特徴, 特徴, 性格の異なる特徴を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T16:12:52Z) - Human-like conceptual representations emerge from language prediction [72.5875173689788]
大規模言語モデル(LLMs)は、言語データに対する次世代の予測を通じてのみ訓練され、顕著な人間的な振る舞いを示す。
これらのモデルは、人間に似た概念を発達させ、もしそうなら、そのような概念はどのように表現され、組織化されるのか?
以上の結果から,LLMは言語記述から他の概念に関する文脈的手がかりに関して柔軟に概念を導出できることが示唆された。
これらの結果は、構造化された人間のような概念表現が、現実世界の接地なしに言語予測から自然に現れることを証明している。
論文 参考訳(メタデータ) (2025-01-21T23:54:17Z) - The Dark Patterns of Personalized Persuasion in Large Language Models: Exposing Persuasive Linguistic Features for Big Five Personality Traits in LLMs Responses [0.0]
我々は、ビッグファイブ・パーソナリティの様々なレベルにおけるパーソナリティに影響を与えるのに不可欠な13の言語的特徴を同定する。
モデルでは、不安関連語を神経症に用い、達成関連語を良心に用い、経験へのオープンネスのために認知過程語を減らしている。
論文 参考訳(メタデータ) (2024-11-08T23:02:59Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - Neural networks for learning personality traits from natural language [0.0]
この論文プロジェクトは、非常に実験的であり、その背景にある動機は、そのトピックに関する詳細な分析を提示することである。
出発点は、心理学文献が5つの主要な性格特性(Big Five)のマーカーとして定義する形容詞の辞書である。
私たちは2013年にTomas Mikolov氏が発明した分散アルゴリズムのクラスを使用します。
論文 参考訳(メタデータ) (2023-02-23T10:33:40Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Word meaning in minds and machines [18.528929583956725]
我々は、現代のNLPシステムは人間の単語類似性のモデルとしてかなり成功したが、他の多くの点で不足していると主張している。
現在のモデルは、大きなコーパスのテキストベースのパターンに強く結びついており、人々が言葉を通して表現する欲求、目標、信念に弱く結びついている。
我々は、NLPシステムを基盤とするより有望なアプローチについて議論し、それらがより人間らしく概念的な言葉の意味の基盤でより成功していくと論じる。
論文 参考訳(メタデータ) (2020-08-04T18:45:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。