論文の概要: Machine intuition: Uncovering human-like intuitive decision-making in
GPT-3.5
- arxiv url: http://arxiv.org/abs/2212.05206v1
- Date: Sat, 10 Dec 2022 05:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 14:51:45.680654
- Title: Machine intuition: Uncovering human-like intuitive decision-making in
GPT-3.5
- Title(参考訳): 機械直感:GPT-3.5における人間のような直感的な意思決定
- Authors: Thilo Hagendorff, Sarah Fabi, Michal Kosinski
- Abstract要約: いくつかのAIシステム、すなわち大きな言語モデル(LLM)は、人間のような直感に類似した振る舞いを示す。
本研究は,認知科学の手法によるLSMの研究が,創発的な特徴を明らかにする可能性を示唆している。
- 参考スコア(独自算出の注目度): 0.08057006406834465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) technologies revolutionize vast fields of
society. Humans using these systems are likely to expect them to work in a
potentially hyperrational manner. However, in this study, we show that some AI
systems, namely large language models (LLMs), exhibit behavior that strikingly
resembles human-like intuition - and the many cognitive errors that come with
them. We use a state-of-the-art LLM, namely the latest iteration of OpenAI's
Generative Pre-trained Transformer (GPT-3.5), and probe it with the Cognitive
Reflection Test (CRT) as well as semantic illusions that were originally
designed to investigate intuitive decision-making in humans. Our results show
that GPT-3.5 systematically exhibits "machine intuition," meaning that it
produces incorrect responses that are surprisingly equal to how humans respond
to the CRT as well as to semantic illusions. We investigate several approaches
to test how sturdy GPT-3.5's inclination for intuitive-like decision-making is.
Our study demonstrates that investigating LLMs with methods from cognitive
science has the potential to reveal emergent traits and adjust expectations
regarding their machine behavior.
- Abstract(参考訳): 人工知能(AI)技術は社会の広い分野に革命をもたらした。
これらのシステムを使用する人間は、潜在的に過度な方法で機能する可能性が高い。
しかし,本研究では,大きな言語モデル(LLM)と呼ばれるAIシステムが,人間のような直観と著しく類似した行動を示し,それに伴う多くの認知的誤りを示す。
我々は、現在最先端のLLM、すなわちOpenAIのジェネレーティブ・プレトレーニング・トランスフォーマー(GPT-3.5)の最新版を使用し、認知反射テスト(CRT)と、人間の直感的な意思決定を調査するために設計されたセマンティック・イリュージョンを用いてそれを探索する。
以上の結果から,GPT-3.5は「機械的直感」を系統的に示しており,人間のCRT反応や意味的錯覚に匹敵する不正確な反応を生じることが示唆された。
直観的意思決定に対するsturdy gpt-3.5の傾きをテストするためのいくつかのアプローチについて検討した。
本研究は,認知科学の手法によるllmの調査が,創発的特性を明らかにし,機械行動に対する期待を調整できる可能性を実証するものである。
関連論文リスト
- Mind Scramble: Unveiling Large Language Model Psychology Via Typoglycemia [27.650551131885152]
大規模言語モデル(LLM)の研究は、物理世界の複雑なタスクに対処する上で有望であることを示している。
GPT-4のような強力なLDMは、人間のような認知能力を示し始めていることが研究で示唆されている。
論文 参考訳(メタデータ) (2024-10-02T15:47:25Z) - Generative AI as a metacognitive agent: A comparative mixed-method study with human participants on ICF-mimicking exam performance [0.0]
本研究は,国際コーチング連盟 ICF 試験の文脈において,人間のメタ認知に対する大規模言語モデルのメタ認知能力について検討した。
混合手法を用いて,ヒトと5種類の高度なLDMのメタ認知能力を評価した。
以上の結果から,LLMはすべてのメタ認知的指標,特に過信率の低下において,人間よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-05-07T22:15:12Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - Language Models Hallucinate, but May Excel at Fact Verification [89.0833981569957]
大規模言語モデル (LLM) はしばしば「ハロシン化 (hallucinate)」し、結果として非実効出力となる。
GPT-3.5でさえ、実際の出力は25%以下である。
これは、進捗を計測し、インセンティブを与えるために、事実検証の重要性を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-23T04:39:01Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - Deception Abilities Emerged in Large Language Models [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を備えた人工知能(AI)システムの最前線にある。
本研究は, GPT-4 などの最先端 LLM にそのような戦略が出現したが, 初期の LLM には存在しなかったことを明らかにする。
我々は、最先端のLLMが他のエージェントの誤った信念を理解し、誘導できることを示す一連の実験を行う。
論文 参考訳(メタデータ) (2023-07-31T09:27:01Z) - LLM Cognitive Judgements Differ From Human [0.03626013617212666]
認知科学文献からの限定データ帰納的推論課題におけるGPT-3とChatGPTの機能について検討する。
その結果、これらのモデルの認知的判断は人間に似ていないことが示唆された。
論文 参考訳(メタデータ) (2023-07-20T16:22:36Z) - Unleashing the Emergent Cognitive Synergy in Large Language Models: A Task-Solving Agent through Multi-Persona Self-Collaboration [116.09561564489799]
Solo Performance Promptingは、複数のペルソナと多ターンの自己コラボレーションをすることで、単一のLCMを認知的シナジストに変換する。
認知シナジスト(英: Cognitive Synergist)は、複雑なタスクにおける問題解決を強化するために、複数の心の強みと知識を協調的に結合するインテリジェントエージェントである。
より詳細な分析により,LLMに複数の微粒なペルソナを割り当てることによって,単一あるいは固定数のペルソナに比べて問題解決能力が向上することが示された。
論文 参考訳(メタデータ) (2023-07-11T14:45:19Z) - Human-Like Intuitive Behavior and Reasoning Biases Emerged in Language
Models -- and Disappeared in GPT-4 [0.0]
大型言語モデル (LLM) は人間の直感に類似した行動を示す。
また、直感的な意思決定の傾向がいかに頑丈かも調べる。
論文 参考訳(メタデータ) (2023-06-13T08:43:13Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。