論文の概要: Machine intuition: Uncovering human-like intuitive decision-making in
GPT-3.5
- arxiv url: http://arxiv.org/abs/2212.05206v1
- Date: Sat, 10 Dec 2022 05:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 14:51:45.680654
- Title: Machine intuition: Uncovering human-like intuitive decision-making in
GPT-3.5
- Title(参考訳): 機械直感:GPT-3.5における人間のような直感的な意思決定
- Authors: Thilo Hagendorff, Sarah Fabi, Michal Kosinski
- Abstract要約: いくつかのAIシステム、すなわち大きな言語モデル(LLM)は、人間のような直感に類似した振る舞いを示す。
本研究は,認知科学の手法によるLSMの研究が,創発的な特徴を明らかにする可能性を示唆している。
- 参考スコア(独自算出の注目度): 0.08057006406834465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) technologies revolutionize vast fields of
society. Humans using these systems are likely to expect them to work in a
potentially hyperrational manner. However, in this study, we show that some AI
systems, namely large language models (LLMs), exhibit behavior that strikingly
resembles human-like intuition - and the many cognitive errors that come with
them. We use a state-of-the-art LLM, namely the latest iteration of OpenAI's
Generative Pre-trained Transformer (GPT-3.5), and probe it with the Cognitive
Reflection Test (CRT) as well as semantic illusions that were originally
designed to investigate intuitive decision-making in humans. Our results show
that GPT-3.5 systematically exhibits "machine intuition," meaning that it
produces incorrect responses that are surprisingly equal to how humans respond
to the CRT as well as to semantic illusions. We investigate several approaches
to test how sturdy GPT-3.5's inclination for intuitive-like decision-making is.
Our study demonstrates that investigating LLMs with methods from cognitive
science has the potential to reveal emergent traits and adjust expectations
regarding their machine behavior.
- Abstract(参考訳): 人工知能(AI)技術は社会の広い分野に革命をもたらした。
これらのシステムを使用する人間は、潜在的に過度な方法で機能する可能性が高い。
しかし,本研究では,大きな言語モデル(LLM)と呼ばれるAIシステムが,人間のような直観と著しく類似した行動を示し,それに伴う多くの認知的誤りを示す。
我々は、現在最先端のLLM、すなわちOpenAIのジェネレーティブ・プレトレーニング・トランスフォーマー(GPT-3.5)の最新版を使用し、認知反射テスト(CRT)と、人間の直感的な意思決定を調査するために設計されたセマンティック・イリュージョンを用いてそれを探索する。
以上の結果から,GPT-3.5は「機械的直感」を系統的に示しており,人間のCRT反応や意味的錯覚に匹敵する不正確な反応を生じることが示唆された。
直観的意思決定に対するsturdy gpt-3.5の傾きをテストするためのいくつかのアプローチについて検討した。
本研究は,認知科学の手法によるllmの調査が,創発的特性を明らかにし,機械行動に対する期待を調整できる可能性を実証するものである。
関連論文リスト
- Do Large Language Models Mirror Cognitive Language Processing? [47.72734808139112]
大規模言語モデル(LLM)は、テキスト理解と論理的推論において顕著な能力を示した。
本研究では,LLM表現と人間の認知信号をブリッジして,LLMが認知言語処理をいかに効果的にシミュレートするかを評価する手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:38:20Z) - Illuminating the Black Box: A Psychometric Investigation into the
Multifaceted Nature of Large Language Models [3.692410936160711]
本研究では,AIパーソナリティやAInalityの概念を探求し,Large Language Models(LLM)が人間のパーソナリティに似たパターンを示すことを示唆する。
プロジェクティブテストを用いて,直接質問を通じて容易にはアクセスできないLLM個性の隠れた側面を明らかにする。
機械学習解析の結果,LSMは異なるAinality特性を示し,多様な性格型を示し,外的指示に応答して動的に変化を示すことが明らかとなった。
論文 参考訳(メタデータ) (2023-12-21T04:57:21Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Language Models Hallucinate, but May Excel at Fact Verification [95.57276329141618]
大規模言語モデル(LLM)はしばしば「ハロシン化(hallucinate)」し、結果として非実効出力となる。
GPT-3.5でさえ、実際の出力は25%以下である。
これは、進捗を計測し、インセンティブを与えるために、事実検証の重要性を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-23T04:39:01Z) - The Confidence-Competence Gap in Large Language Models: A Cognitive
Study [3.757390057317548]
大規模言語モデル(LLM)は、様々な領域にわたるパフォーマンスに対して、広く注目を集めている。
我々はこれらのモデルを多様なアンケートと実世界のシナリオで活用する。
この結果から,モデルが誤答しても高い信頼性を示す興味深い事例が判明した。
論文 参考訳(メタデータ) (2023-09-28T03:50:09Z) - Deception Abilities Emerged in Large Language Models [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を備えた人工知能(AI)システムの最前線にある。
本研究は, GPT-4 などの最先端 LLM にそのような戦略が出現したが, 初期の LLM には存在しなかったことを明らかにする。
我々は、最先端のLLMが他のエージェントの誤った信念を理解し、誘導できることを示す一連の実験を行う。
論文 参考訳(メタデータ) (2023-07-31T09:27:01Z) - LLM Cognitive Judgements Differ From Human [0.03626013617212666]
認知科学文献からの限定データ帰納的推論課題におけるGPT-3とChatGPTの機能について検討する。
その結果、これらのモデルの認知的判断は人間に似ていないことが示唆された。
論文 参考訳(メタデータ) (2023-07-20T16:22:36Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A
Task-Solving Agent through Multi-Persona Self-Collaboration [123.0167511232417]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language
Models -- and Disappeared in GPT-4 [0.0]
大型言語モデル (LLM) は人間の直感に類似した行動を示す。
また、直感的な意思決定の傾向がいかに頑丈かも調べる。
論文 参考訳(メタデータ) (2023-06-13T08:43:13Z) - Revisiting the Reliability of Psychological Scales on Large Language
Models [66.31055885857062]
本研究では,人格評価を大規模言語モデル(LLM)に適用する際の信頼性について検討する。
LLMのパーソナライズに光を当てることで、この分野での今後の探索の道を開くことに努める。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Influence of External Information on Large Language Models Mirrors
Social Cognitive Patterns [51.622612759892775]
社会的認知理論は、人々が他人を観察して知識を習得する方法を説明する。
近年,大規模言語モデル(LLM)の急速な発展を目撃している。
LLMは、AIエージェントとして、その認知と行動を形成する外部情報を観察することができる。
論文 参考訳(メタデータ) (2023-05-08T16:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。