論文の概要: Davinci the Dualist: the mind-body divide in large language models and
in human learners
- arxiv url: http://arxiv.org/abs/2305.07667v2
- Date: Tue, 30 May 2023 21:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 02:20:23.966019
- Title: Davinci the Dualist: the mind-body divide in large language models and
in human learners
- Title(参考訳): Davinci the Dualist : 大きな言語モデルと人間の学習者における心身分割
- Authors: Iris Berent, Alexzander Sansiveri
- Abstract要約: 我々は,ダヴィンチにおける心身分離を探索する。これは,自然のコア知識を欠いた大規模言語モデル(LLM)である。
ダヴィンチは依然としてデュアル主義に傾き、このバイアスは学習者の帰納的ポテンシャルとともに体系的に増加することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A large literature suggests that people are intuitive Dualists--they consider
the mind ethereal, distinct from the body. Past research also shows that
Dualism emerges, in part, via learning (e.g., Barlev & Shtulman, 2021). But
whether learning is sufficient to give rise to Dualism is unknown.The evidence
from human learners does address this question because humans are endowed not
only with general learning capacities but also with core knowledge capacities.
And recent results suggest that core knowledge begets Dualism (Berent, Theodore
& Valencia, 2021; Berent, 2023). To evaluate the role of learning, here, we
probe for a mind-body divide in Davinci--a large language model (LLM) that is
devoid of any innate core knowledge. We show that Davinci still leans towards
Dualism, and that this bias increases systematically with the learner's
inductive potential. Thus, davinci (a GPT-3 model) exhibits mild Dualist
tendencies, whereas its descendent, text-davinci-003 (a GPT-3.5 model), shows a
full-blown bias. It selectively considers thoughts (epistemic states) as
disembodied--as unlikely to show up in the body (in the brain), but not in its
absence (after death). While Davinci's performance is constrained by its
syntactic limitations, and it differs from humans, its Dualist bias is robust.
These results demonstrate that the mind-body divide is partly learnable from
experience.They also show how, as LLM's are exposed to human narratives, they
induce not only human knowledge but also human biases.
- Abstract(参考訳): 大きな文献では、人々は直感的な双対主義者であることを示唆している。
過去の研究は、デュアラリズムが学習を通して現れることも示している(例えば、Barlev & Shtulman, 2021)。
しかし、人間の学習者からの証拠は、人間は一般の学習能力だけでなく、コアとなる知識能力も与えられているため、この疑問に答えている。
そして最近の結果は、コア知識が双対性(berent, theodore & valencia, 2021; berent, 2023)をもたらすことを示唆している。
学習の役割を評価するために,本研究は,本研究のコア知識を欠く大規模言語モデル(llm)のdavinciにおける心身分断について検討する。
ダヴィンチは依然として双対主義に傾き、このバイアスは学習者の帰納的ポテンシャルとともに体系的に増加する。
したがって、davinci(GPT-3モデル)は緩やかなデュアル傾向を示し、その子孫であるtext-davinci-003(GPT-3.5モデル)は完全なバイアスを示す。
思考(感情状態)を身体(脳内)に現れることはありそうにないが、その不在(死後)には現れない、と選択的に考える。
ダヴィンチのパフォーマンスは構文上の制限によって制限され、人間とは異なるが、双対バイアスは頑健である。
これらの結果は、心の分裂が経験から部分的に学べることを示しており、LLMが人間の物語に触れるにつれて、人間の知識だけでなく人間のバイアスも引き起こすことを示す。
関連論文リスト
- Large Language Models and the Rationalist Empiricist Debate [0.043512163406552]
大規模言語モデルは合理主義を擁護すると主張する者もいる。
主張は、支持している経験主義の性質に依存する。
合理主義的な経験主義的議論に対するLLMの人間との関係は疑わしい。
論文 参考訳(メタデータ) (2024-10-16T15:49:33Z) - Trying to be human: Linguistic traces of stochastic empathy in language models [0.2638512174804417]
大規模言語モデル(LLM)は、コンピュータ生成コンテンツの質向上を支える重要な要因である。
私たちの研究は、2つの重要な要因が人間とAIの人種にどのように貢献するかをテストする。
論文 参考訳(メタデータ) (2024-10-02T15:46:40Z) - Exploring Dark Knowledge under Various Teacher Capacities and Addressing Capacity Mismatch [36.2630998911642]
本論文は,異なる能力を持つ教師が提供する暗黒の知識を深く掘り下げるものである。
ダークナレッジの違いは、キャパシティミスマッチという特別な現象につながります。
論文 参考訳(メタデータ) (2024-05-21T04:43:15Z) - Interpretability Needs a New Paradigm [49.134097841837715]
解釈可能性(英: Interpretability)とは、人間に理解可能な言葉でモデルを説明する研究である。
この議論の核心は、それぞれのパラダイムがその説明が忠実である、すなわちモデルの振舞いに忠実であることをいかに保証するかである。
この論文の立場は、信仰を警戒しながら新しいパラダイムを考えるべきだというものである。
論文 参考訳(メタデータ) (2024-05-08T19:31:06Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - Physics of Language Models: Part 3.2, Knowledge Manipulation [51.68385617116854]
本稿では,4つの基本的な知識操作タスクについて検討する。
言語モデルは知識検索に優れるが、最も単純な分類や比較タスクにも耐え難い。
また, GPT-4のような近代的な事前学習言語モデルにも適用できる。
論文 参考訳(メタデータ) (2023-09-25T17:50:41Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Learning what they think vs. learning what they do: The
micro-foundations of vicarious learning [10.624945101156555]
我々は、活気ある学習の基礎となる2つの基本的なプロセス、すなわち、行動の観察(彼らが何をするかを学ぶ)と信念の共有(彼らが何を考えているかを学ぶ)を理論化し、モデル化する。
私たちのモデルの分析は、3つの重要な洞察を示します。
これら3つの結果は、活気ある学習が自己確認された偏見の信念にどのように影響するかの結果であることが示されている。
論文 参考訳(メタデータ) (2020-07-30T07:06:01Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - Dual Learning: Theoretical Study and an Algorithmic Extension [168.0485041314289]
本稿では,新たな領域からのフィードバック信号を活用してマッピングの質を向上させる多段階二重学習を提案する。
マルチステップのデュアルラーニングは、穏やかな条件下での標準的なデュアルラーニングの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-05-17T12:14:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。