論文の概要: A Sentence is Worth a Thousand Pictures: Can Large Language Models
Understand Human Language?
- arxiv url: http://arxiv.org/abs/2308.00109v1
- Date: Wed, 26 Jul 2023 18:58:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-06 11:13:21.049745
- Title: A Sentence is Worth a Thousand Pictures: Can Large Language Models
Understand Human Language?
- Title(参考訳): 巨大な言語モデルは人間の言語を理解することができるのか?
- Authors: Gary Marcus, Evelina Leivada, Elliot Murphy
- Abstract要約: 我々は,大規模言語モデルの寄与を,対象システムの理論的に有意な表現として分析する。
これらのモデルの開発と活用の現在の状態からまだ欠けている重要な能力を特定します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Artificial Intelligence applications show great potential for
language-related tasks that rely on next-word prediction. The current
generation of large language models have been linked to claims about human-like
linguistic performance and their applications are hailed both as a key step
towards Artificial General Intelligence and as major advance in understanding
the cognitive, and even neural basis of human language. We analyze the
contribution of large language models as theoretically informative
representations of a target system vs. atheoretical powerful mechanistic tools,
and we identify the key abilities that are still missing from the current state
of development and exploitation of these models.
- Abstract(参考訳): 人工知能アプリケーションは、単語の予測に依存する言語関連のタスクに大きな可能性を示す。
現在の世代の大きな言語モデルは、人間の言語的パフォーマンスに関する主張と関連付けられており、その応用は、人工知能の重要なステップとして、そして人間の言語における認知的、さらには神経的基礎を理解するための大きな進歩として、双方に称賛されている。
我々は,大規模言語モデルの寄与を,対象システムの理論的に有意な表現として分析し,これらのモデルの開発・活用の現状からまだ欠落している重要な能力を特定する。
関連論文リスト
- Self Generated Wargame AI: Double Layer Agent Task Planning Based on
Large Language Model [0.6562256987706128]
本稿では,大規模言語モデルを知的意思決定の分野に革新的に応用する。
自然言語の相互作用による2層エージェントタスク計画、課題、決定命令の実行を提案する。
大規模言語モデルの知的意思決定能力は、一般的に使われている強化学習AIやルールAIよりもはるかに強いことが判明した。
論文 参考訳(メタデータ) (2023-12-02T09:45:45Z) - Formal Aspects of Language Modeling [79.5645409889761]
大規模言語モデルは最も一般的なNLP発明の1つとなっている。
これらのノートは、ETH Z "urich course on large language model" の理論的部分の伴奏である。
論文 参考訳(メタデータ) (2023-11-07T20:21:42Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Diffusion Language Models Can Perform Many Tasks with Scaling and
Instruction-Finetuning [56.03057119008865]
拡散言語モデルを拡張することで、強力な言語学習者が効果的に学習できることが示される。
大規模データから知識を最初に取得することで,大規模に有能な拡散言語モデルを構築する。
実験により、拡散言語モデルのスケーリングは、下流言語タスクにおけるパフォーマンスを一貫して改善することが示された。
論文 参考訳(メタデータ) (2023-08-23T16:01:12Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Beyond the limitations of any imaginable mechanism: large language
models and psycholinguistics [0.0]
大規模な言語モデルは、言語のためのモデルを提供する。
実践的な道具として有用であり、言語と思考の関係を再放送する基盤として、イラストレーター比較や哲学として有用である。
論文 参考訳(メタデータ) (2023-02-28T20:49:38Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Language Models are not Models of Language [0.0]
トランスファーラーニングにより、言語モデリングタスクでトレーニングされた大規模なディープラーニングニューラルネットワークにより、パフォーマンスが大幅に向上した。
深層学習モデルは言語の理論的モデルではないので、言語モデルという用語は誤解を招く。
論文 参考訳(メタデータ) (2021-12-13T22:39:46Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。