論文の概要: How important is language for human-like intelligence?
- arxiv url: http://arxiv.org/abs/2509.15560v1
- Date: Fri, 19 Sep 2025 03:45:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.982228
- Title: How important is language for human-like intelligence?
- Title(参考訳): 人間のような知性にとって言語はどのくらい重要か?
- Authors: Gary Lupyan, Hunter Gentry, Martin Zettersten,
- Abstract要約: 我々は、言語がより一般的なAIシステムと人間の知性の中心的な側面の両方の出現の鍵を握るかもしれないと主張している。
第一に、言語は多くの抽象概念の表現と推論を容易にするコンパクトな表現を提供する。
第二に、これらの圧縮表現は集合心の反復出力である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We use language to communicate our thoughts. But is language merely the expression of thoughts, which are themselves produced by other, nonlinguistic parts of our minds? Or does language play a more transformative role in human cognition, allowing us to have thoughts that we otherwise could (or would) not have? Recent developments in artificial intelligence (AI) and cognitive science have reinvigorated this old question. We argue that language may hold the key to the emergence of both more general AI systems and central aspects of human intelligence. We highlight two related properties of language that make it such a powerful tool for developing domain--general abilities. First, language offers compact representations that make it easier to represent and reason about many abstract concepts (e.g., exact numerosity). Second, these compressed representations are the iterated output of collective minds. In learning a language, we learn a treasure trove of culturally evolved abstractions. Taken together, these properties mean that a sufficiently powerful learning system exposed to language--whether biological or artificial--learns a compressed model of the world, reverse engineering many of the conceptual and causal structures that support human (and human-like) thought.
- Abstract(参考訳): 私たちは考えを伝えるのに言語を使う。
しかし、言語は単に思考の表現であり、それは心の他の非言語的な部分によってもたらされるのか?
それとも、言語は人間の認知においてよりトランスフォーメーション的な役割を担っているのだろうか。
人工知能(AI)と認知科学の最近の進歩は、この古い疑問を再燃させた。
我々は、言語がより一般的なAIシステムと人間の知性の中心的な側面の両方の出現の鍵を握るかもしれないと主張している。
ドメイン・ジェネラルな能力を開発するための強力なツールである言語の特徴を2つ強調する。まず、言語は、多くの抽象概念(例えば、正確な数値性)を表現し、推論しやすくする、コンパクトな表現を提供する。次に、これらの圧縮された表現は、集合心の反復的な出力である。言語を学ぶ際に、文化的に進化した抽象概念の宝庫を学ぶ。これらの特性は、言語に露出した十分に強力な学習システムが、生物学的または人工的に学習した世界の圧縮モデルであるにせよ、人間の思考を支える概念的・因果的構造の多くをリバースエンジニアリングすることを意味している。
関連論文リスト
- A Unified Theory of Language [0.0]
統一言語理論は、ベイズ的な言語処理の認知言語モデルを組み合わせたものである。
この理論は、その速さや表現性など、言語の主要な事実を論じている。
それは、インテリジェンスの表示のための性的選択によって進化した言語を提案する。
論文 参考訳(メタデータ) (2025-08-14T11:09:15Z) - Natural, Artificial, and Human Intelligences [0.046040036610482664]
言語とともに、発明、複雑な推論、実施、自己認識の能力として要約できる重要な要素が4つあると考えている。
人間の知能の最もユニークな成果については、言語とともに、発明、複雑な推論の能力、実施、自己認識の4つの重要な要素が存在すると考えています。
論文 参考訳(メタデータ) (2025-06-02T19:11:49Z) - A Sentence is Worth a Thousand Pictures: Can Large Language Models Understand Hum4n L4ngu4ge and the W0rld behind W0rds? [2.7342737448775534]
LLM(Large Language Models)は、人間の言語的パフォーマンスに関する主張と関連付けられている。
対象認知システムの理論的に有意な表現としてLLMの寄与を分析する。
我々は,より高い処理レベルからのトップダウンフィードバックを通じて,モデルが全体像を見る能力を評価する。
論文 参考訳(メタデータ) (2023-07-26T18:58:53Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Language Cognition and Language Computation -- Human and Machine
Language Understanding [51.56546543716759]
言語理解は認知科学とコンピュータ科学の分野で重要な科学的問題である。
これらの規律を組み合わせることで、インテリジェントな言語モデルを構築する上で、新たな洞察が得られますか?
論文 参考訳(メタデータ) (2023-01-12T02:37:00Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - An Enactivist account of Mind Reading in Natural Language Understanding [0.0]
我々は、古典的なAIハード問題に対して、急進的行動主義的議題の理解を適用する。
チューリングテストはコンピュータが言語を使えると仮定し、その課題は人間の知性を偽造することであった。
この論文は、自然言語の理解が人間間でどのように機能するかを再検討する。
論文 参考訳(メタデータ) (2021-11-11T12:46:00Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。