論文の概要: Towards a Psychology of Machines: Large Language Models Predict Human Memory
- arxiv url: http://arxiv.org/abs/2403.05152v3
- Date: Wed, 04 Dec 2024 19:01:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:38:27.706593
- Title: Towards a Psychology of Machines: Large Language Models Predict Human Memory
- Title(参考訳): 機械心理学に向けて:人間の記憶を予測する大言語モデル
- Authors: Markus Huff, Elanur Ulakçı,
- Abstract要約: 大規模言語モデル(LLM)は自然言語処理において顕著な能力を示している。
本研究では,LLMが庭道文や文脈情報を含むタスクにおいて,人間の記憶性能を予測できるかどうかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Large language models (LLMs), such as ChatGPT, have shown remarkable abilities in natural language processing, opening new avenues in psychological research. This study explores whether LLMs can predict human memory performance in tasks involving garden-path sentences and contextual information. In the first part, we used ChatGPT to rate the relatedness and memorability of garden-path sentences preceded by either fitting or unfitting contexts. In the second part, human participants read the same sentences, rated their relatedness, and completed a surprise memory test. The results demonstrated that ChatGPT's relatedness ratings closely matched those of the human participants, and its memorability ratings effectively predicted human memory performance. Both LLM and human data revealed that higher relatedness in the unfitting context condition was associated with better memory performance, aligning with probabilistic frameworks of context-dependent learning. These findings suggest that LLMs, despite lacking human-like memory mechanisms, can model aspects of human cognition and serve as valuable tools in psychological research. We propose the field of machine psychology to explore this interplay between human cognition and artificial intelligence, offering a bidirectional approach where LLMs can both benefit from and contribute to our understanding of human cognitive processes.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、自然言語処理において顕著な能力を示し、心理学研究の新たな道を開いた。
本研究では,LLMが庭道文や文脈情報を含むタスクにおいて,人間の記憶性能を予測できるかどうかを検討する。
第1部ではChatGPTを用いて,適当あるいは不適当な文脈に先行する庭道文の関連性と記憶可能性を評価した。
第2部では、人間の参加者が同じ文章を読み、関連性を評価し、驚きの記憶テストを完成させた。
その結果,ChatGPTの関連性評価は被験者の関連性評価と密接に一致し,記憶力評価は人間の記憶性能を効果的に予測した。
LLMと人的データの両方で、不適合な文脈条件における高い関連性は、文脈依存学習の確率的フレームワークと整合して、より優れたメモリ性能と関連していることが明らかとなった。
これらの知見は、LLMが人間の記憶機構を欠いているにもかかわらず、人間の認知の側面をモデル化し、心理学研究において貴重なツールとして機能することを示唆している。
我々は、人間の認知と人工知能の相互作用を探索する機械心理学の分野を提案し、LLMが人間の認知過程の理解から恩恵を受け、貢献できる双方向アプローチを提供する。
関連論文リスト
- Metacognitive Monitoring: A Human Ability Beyond Generative Artificial Intelligence [0.0]
大規模言語モデル(LLM)は、人間の認知過程と顕著に一致している。
本研究は,ChatGPTがヒトに類似したメタ認知モニタリング能力を持っているかを検討する。
論文 参考訳(メタデータ) (2024-10-17T09:42:30Z) - Measuring Psychological Depth in Language Models [50.48914935872879]
本稿では,文学理論に根ざした新たな枠組みである心理的深度尺度(PDS)を紹介する。
PDS(0.72 クリッペンドルフのα)に基づいて人間が一貫して物語を評価できることを示し、我々の枠組みを実証的に検証する。
驚いたことに、GPT-4のストーリーはRedditから入手した高評価の人文記事と統計的に区別できない。
論文 参考訳(メタデータ) (2024-06-18T14:51:54Z) - Grammaticality Representation in ChatGPT as Compared to Linguists and Laypeople [0.0]
本研究は,148の言語現象について,住民の文法的判断を収集した以前の研究に基づいている。
我々の主な焦点は、これらの言語構成の判断において、ChatGPTを一般人と言語学者の両方と比較することであった。
全体として,ChatGPTと言語学者の間には73%から95%の収束率があり,全体としては89%と推定された。
論文 参考訳(メタデータ) (2024-06-17T00:23:16Z) - Can ChatGPT Read Who You Are? [10.577227353680994]
チェコ語で書かれたテキストを代表とする総合的なユーザスタディの結果を155人のサンプルで報告した。
本研究は,ChatGPTによる性格特性推定と人間による評価とを比較し,テキストから人格特性を推定する際のChatGPTの競争性能を報告する。
論文 参考訳(メタデータ) (2023-12-26T14:43:04Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - Humans and language models diverge when predicting repeating text [52.03471802608112]
我々は,人間とLMのパフォーマンスが分岐するシナリオを提示する。
人間とGPT-2 LMの予測はテキストスパンの最初のプレゼンテーションで強く一致しているが、メモリが役割を担い始めると、その性能は急速にバラバラになる。
このシナリオが,LMを人間の行動に近づける上で,今後の作業に拍車をかけることを期待しています。
論文 参考訳(メタデータ) (2023-10-10T08:24:28Z) - Is ChatGPT a Good Personality Recognizer? A Preliminary Study [19.278538849802025]
本研究では,ChatGPTが与えられたテキストから人格を認識する能力について検討する。
我々は、ChatGPTが与えられたテキストから人格を認識する能力を調べるために、様々なプロンプト戦略を採用している。
論文 参考訳(メタデータ) (2023-07-08T11:02:02Z) - Does ChatGPT have Theory of Mind? [2.3129337924262927]
心の理論 (Theory of Mind, ToM) とは、人間の思考と意思決定を理解する能力である。
本稿では,最近のChatGPT伝統における大規模言語モデル(Large Language Models)がToMをどの程度持っているかを検討する。
論文 参考訳(メタデータ) (2023-05-23T12:55:21Z) - Can ChatGPT Understand Too? A Comparative Study on ChatGPT and
Fine-tuned BERT [103.57103957631067]
チャットGPTは、人間の質問に対する流動的で高品質な応答を生成できるため、大きな注目を集めている。
そこで我々は,ChatGPTの理解能力を,最も人気のあるGLUEベンチマークで評価し,より詳細な4種類のBERTスタイルのモデルと比較した。
2)ChatGPTは,感情分析や質問応答タスクにおいて,BERTと同等のパフォーマンスを達成している。
論文 参考訳(メタデータ) (2023-02-19T12:29:33Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。