論文の概要: Davinci the Dualist: the mind-body divide in large language models and
in human learners
- arxiv url: http://arxiv.org/abs/2305.07667v1
- Date: Wed, 10 May 2023 12:28:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 11:15:51.035334
- Title: Davinci the Dualist: the mind-body divide in large language models and
in human learners
- Title(参考訳): Davinci the Dualist : 大きな言語モデルと人間の学習者における心身分割
- Authors: Iris Berent, Alexzander Sansiveri
- Abstract要約: 我々は,ダヴィンチにおける心身分離を探索する。これは,自然のコア知識を欠いた大規模言語モデル(LLM)である。
ダヴィンチは依然としてデュアル主義に傾き、このバイアスは学習者の帰納的ポテンシャルとともに体系的に増加することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large literature suggests that people are intuitive Dualists--they consider
the mind ethereal, distinct from the body. Past research also shows that
Dualism emerges, in part, via learning (e.g., Barlev & Shtulman, 2021). But
whether learning is sufficient to give rise to Dualism is unknown.The evidence
from human learners does address this question because humans are endowed not
only with general learning capacities but also with core knowledge capacities.
And recent results suggest that core knowledge begets Dualism (Berent, Theodore
& Valencia, 2021; Berent, 2023). To evaluate the role of learning, here, we
probe for a mind-body divide in Davinci--a large language model (LLM) that is
devoid of any innate core knowledge. We show that Davinci still leans towards
Dualism, and that this bias increases systematically with the learner's
inductive potential. Thus, davinci (a GPT-3 model) exhibits mild Dualist
tendencies, whereas its descendent, text-davinci-003 (a GPT-3.5 model), shows a
full-blown bias. It selectively considers thoughts (epistemic states) as
disembodied--as unlikely to show up in the body (in the brain), but not in its
absence (after death). While Davinci's performance is constrained by its
syntactic limitations, and it differs from humans, its Dualist bias is robust.
These results demonstrate that the mind-body divide is partly learnable from
experience.They also show how, as LLM's are exposed to human narratives, they
induce not only human knowledge but also human biases.
- Abstract(参考訳): 大きな文献では、人々は直感的な双対主義者であることを示唆している。
過去の研究は、デュアラリズムが学習を通して現れることも示している(例えば、Barlev & Shtulman, 2021)。
しかし、人間の学習者からの証拠は、人間は一般の学習能力だけでなく、コアとなる知識能力も与えられているため、この疑問に答えている。
そして最近の結果は、コア知識が双対性(berent, theodore & valencia, 2021; berent, 2023)をもたらすことを示唆している。
学習の役割を評価するために,本研究は,本研究のコア知識を欠く大規模言語モデル(llm)のdavinciにおける心身分断について検討する。
ダヴィンチは依然として双対主義に傾き、このバイアスは学習者の帰納的ポテンシャルとともに体系的に増加する。
したがって、davinci(GPT-3モデル)は緩やかなデュアル傾向を示し、その子孫であるtext-davinci-003(GPT-3.5モデル)は完全なバイアスを示す。
思考(感情状態)を身体(脳内)に現れることはありそうにないが、その不在(死後)には現れない、と選択的に考える。
ダヴィンチのパフォーマンスは構文上の制限によって制限され、人間とは異なるが、双対バイアスは頑健である。
これらの結果は、心の分裂が経験から部分的に学べることを示しており、LLMが人間の物語に触れるにつれて、人間の知識だけでなく人間のバイアスも引き起こすことを示す。
関連論文リスト
- Interpretability Needs a New Paradigm [49.134097841837715]
解釈可能性(英: Interpretability)とは、人間に理解可能な言葉でモデルを説明する研究である。
この議論の核心は、それぞれのパラダイムがその説明が忠実である、すなわちモデルの振舞いに忠実であることをいかに保証するかである。
この論文の立場は、信仰を警戒しながら新しいパラダイムを考えるべきだというものである。
論文 参考訳(メタデータ) (2024-05-08T19:31:06Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - Physics of Language Models: Part 3.2, Knowledge Manipulation [61.05762942335984]
本稿では,言語モデルが推論中に記憶された知識を操作する能力について考察する。
検索(例:A属性X)、分類(例:A属性Xが偶数か奇数か)、比較(例:A属性XがBより大きいか?)、逆探索(例:A属性Xより大きいか?
論文 参考訳(メタデータ) (2023-09-25T17:50:41Z) - Do Large Language Models know what humans know? [6.2997667081978825]
本稿では,False Belief Task の言語版を人間と大規模言語モデル GPT-3 に提示する。
どちらも他人の信念に敏感であるが、言語モデルは確率的行動を大幅に上回るが、人間に劣らず、その行動の完全な範囲を説明できない。
これは、言語曝露による統計的学習が、人間が他人の精神状態について推論する能力をいかに発達させるかを説明する一方で、他のメカニズムも責任を負っていることを示唆している。
論文 参考訳(メタデータ) (2022-09-04T01:29:53Z) - Applying Deutsch's concept of good explanations to artificial
intelligence and neuroscience -- an initial exploration [0.0]
深層学習におけるドイツの難しい原則と、より形式化された原則とどのように関連しているかを調査します。
私たちは、人間の脳を見ることで、知能でどのように難しい説明が果たす役割を見ます。
論文 参考訳(メタデータ) (2020-12-16T23:23:22Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Learning what they think vs. learning what they do: The
micro-foundations of vicarious learning [10.624945101156555]
我々は、活気ある学習の基礎となる2つの基本的なプロセス、すなわち、行動の観察(彼らが何をするかを学ぶ)と信念の共有(彼らが何を考えているかを学ぶ)を理論化し、モデル化する。
私たちのモデルの分析は、3つの重要な洞察を示します。
これら3つの結果は、活気ある学習が自己確認された偏見の信念にどのように影響するかの結果であることが示されている。
論文 参考訳(メタデータ) (2020-07-30T07:06:01Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dual Learning: Theoretical Study and an Algorithmic Extension [168.0485041314289]
本稿では,新たな領域からのフィードバック信号を活用してマッピングの質を向上させる多段階二重学習を提案する。
マルチステップのデュアルラーニングは、穏やかな条件下での標準的なデュアルラーニングの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-05-17T12:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。