論文の概要: How Large Language Models Need Symbolism
- arxiv url: http://arxiv.org/abs/2509.21404v1
- Date: Wed, 24 Sep 2025 15:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:53.912329
- Title: How Large Language Models Need Symbolism
- Title(参考訳): 言語モデルにシンボルがいかに必要か
- Authors: Xiaotie Deng, Hanyu Li,
- Abstract要約: AIの未来にはスケーリング以上のものが必要だ、と私たちは主張する。
真の発見を解き明かすためには、大きな言語モデルにはコンパスが必要だ。
- 参考スコア(独自算出の注目度): 12.50922986368726
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We argue that AI's future requires more than scaling. To unlock genuine discovery, large language models need a compass: human-crafted symbols to guide their powerful but blind intuition.
- Abstract(参考訳): AIの未来にはスケーリング以上のものが必要だ、と私たちは主張する。
真の発見を解き明かすためには、大きな言語モデルにはコンパスが必要だ。
関連論文リスト
- VisualPredicator: Learning Abstract World Models with Neuro-Symbolic Predicates for Robot Planning [86.59849798539312]
本稿では,記号的・神経的知識表現の強みを組み合わせた一階抽象言語Neuro-Symbolic Predicatesを提案する。
提案手法は, サンプルの複雑さの向上, 分布外一般化の強化, 解釈可能性の向上を実現する。
論文 参考訳(メタデータ) (2024-10-30T16:11:05Z) - Formal Aspects of Language Modeling [74.16212987886013]
大規模言語モデルは最も一般的なNLP発明の1つとなっている。
これらのノートは、ETH Z "urich course on large language model" の理論的部分の伴奏である。
論文 参考訳(メタデータ) (2023-11-07T20:21:42Z) - Symbolic and Language Agnostic Large Language Models [0.0]
我々は,大言語モデル(LLM)の相対的な成功は,記号的対準記号的議論の反映ではないと主張している。
ここでは, 記号的, 言語に依存しない, オントロジ的に根ざした大規模言語モデルによって, ボトムアップ戦略が成功していることを示唆する。
論文 参考訳(メタデータ) (2023-08-27T20:24:33Z) - A Sentence is Worth a Thousand Pictures: Can Large Language Models Understand Hum4n L4ngu4ge and the W0rld behind W0rds? [2.7342737448775534]
LLM(Large Language Models)は、人間の言語的パフォーマンスに関する主張と関連付けられている。
対象認知システムの理論的に有意な表現としてLLMの寄与を分析する。
我々は,より高い処理レベルからのトップダウンフィードバックを通じて,モデルが全体像を見る能力を評価する。
論文 参考訳(メタデータ) (2023-07-26T18:58:53Z) - Beyond the limitations of any imaginable mechanism: large language
models and psycholinguistics [0.0]
大規模な言語モデルは、言語のためのモデルを提供する。
実践的な道具として有用であり、言語と思考の関係を再放送する基盤として、イラストレーター比較や哲学として有用である。
論文 参考訳(メタデータ) (2023-02-28T20:49:38Z) - A Precis of Language Models are not Models of Language [0.0]
言語処理に成功しているにもかかわらず、Large Neural Language Modelsは自然言語の包括的モデルとして不適であることを示す。
AIに関する過度な楽観主義にもかかわらず、現代のニューラルモデルは認識の理解に革命をもたらすものではない。
論文 参考訳(メタデータ) (2022-05-16T12:50:58Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Symbolic Behaviour in Artificial Intelligence [8.849576130278157]
象徴的なAIへの道は、シンボルが何であるかを再解釈することから始まります。
そして、この解釈が、人間が記号を使うときに示す行動特性をどのように統合するかを概説する。
シンボリック行動の出現に必要な認知機械を開発するためのツールとして,AI研究が社会的・文化的エンゲージメントを探求することを提案する。
論文 参考訳(メタデータ) (2021-02-05T20:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。