論文の概要: Imitation versus Innovation: What children can do that large language
and language-and-vision models cannot (yet)?
- arxiv url: http://arxiv.org/abs/2305.07666v1
- Date: Mon, 8 May 2023 18:26:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-21 11:15:16.919609
- Title: Imitation versus Innovation: What children can do that large language
and language-and-vision models cannot (yet)?
- Title(参考訳): イミテーション対イノベーション(Imitation vs Innovation): 大きな言語と言語とビジョンのモデルで、どんな子供ができるでしょうか?
- Authors: Eunice Yiu, Eliza Kosoy and Alison Gopnik
- Abstract要約: 我々は、大規模言語モデルと言語とビジョンモデルが効率的な模倣エンジンであると主張している。
以上の結果から,子どもができることを実現するには,機械が大規模言語や画像以上のものが必要になる可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.10312968200748115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Much discussion about large language models and language-and-vision models
has focused on whether these models are intelligent agents. We present an
alternative perspective. We argue that these artificial intelligence models are
cultural technologies that enhance cultural transmission in the modern world,
and are efficient imitation engines. We explore what AI models can tell us
about imitation and innovation by evaluating their capacity to design new tools
and discover novel causal structures, and contrast their responses with those
of human children. Our work serves as a first step in determining which
particular representations and competences, as well as which kinds of knowledge
or skill, can be derived from particular learning techniques and data.
Critically, our findings suggest that machines may need more than large scale
language and images to achieve what a child can do.
- Abstract(参考訳): 大規模言語モデルと言語とビジョンモデルに関する多くの議論は、これらのモデルがインテリジェントエージェントであるかどうかに焦点を当てている。
我々は別の視点を提示する。
これらの人工知能モデルは、現代世界での文化伝達を促進する文化技術であり、効率的な模倣エンジンであると主張する。
AIモデルは、新しいツールを設計し、新しい因果構造を発見する能力を評価し、その反応を人間の子供と対比することで、模倣と革新について私たちに何を伝えるかを探る。
私たちの研究は、特定の表現と能力、そしてどの種類の知識やスキルが特定の学習技術やデータから引き出せるかを決定するための第一歩として役立ちます。
批判的に言えば、子どもができることを達成するには、機械は大規模言語や画像以上のものが必要になるかもしれない。
関連論文リスト
- Video as the New Language for Real-World Decision Making [100.68643056416394]
ビデオデータは、言語で表現しにくい物理世界に関する重要な情報をキャプチャする。
ビデオは、インターネットの知識を吸収し、多様なタスクを表現できる統一インターフェースとして機能する。
ロボット工学、自動運転、科学といった分野における大きなインパクトの機会を特定します。
論文 参考訳(メタデータ) (2024-02-27T02:05:29Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [53.7168869241458]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - A Sentence is Worth a Thousand Pictures: Can Large Language Models
Understand Human Language? [0.0]
我々は,大規模言語モデルの寄与を,対象システムの理論的に有意な表現として分析する。
これらのモデルの開発と活用の現在の状態からまだ欠けている重要な能力を特定します。
論文 参考訳(メタデータ) (2023-07-26T18:58:53Z) - On the application of Large Language Models for language teaching and
assessment technology [18.735612275207853]
我々は,AIによる言語教育とアセスメントシステムに大規模言語モデルを導入する可能性を検討する。
より大きな言語モデルは、テキスト生成における以前のモデルよりも改善されていることがわかった。
自動階調と文法的誤り訂正において、よく知られたベンチマークで進捗が確認されたタスクについては、初期の調査では、彼ら自身の大きな言語モデルが最先端の結果を改善していないことが示されている。
論文 参考訳(メタデータ) (2023-07-17T11:12:56Z) - Turning large language models into cognitive models [0.0]
大規模言語モデルが認知モデルに変換可能であることを示す。
これらのモデルは人間の行動の正確な表現を提供し、2つの意思決定領域において従来の認知モデルよりも優れている。
これらの結果は、大規模で事前学習されたモデルが一般的な認知モデルに適応できることを示唆している。
論文 参考訳(メタデータ) (2023-06-06T18:00:01Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Beyond the Imitation Game: Quantifying and extrapolating the
capabilities of language models [648.3665819567409]
言語モデルは、規模が大きくなるにつれて量的改善と新しい質的能力の両方を示す。
ビッグベンチは204のタスクで構成され、132の機関で450人の著者が貢献している。
我々は,OpenAIのGPTモデル,Google内部の高密度トランスアーキテクチャ,BIGベンチ上のスイッチ型スパーストランスの挙動を評価する。
論文 参考訳(メタデータ) (2022-06-09T17:05:34Z) - Vygotskian Autotelic Artificial Intelligence: Language and Culture
Internalization for Human-Like AI [16.487953861478054]
本稿では,人工寿命スキル発見の探求において,新たなAIパラダイムを提案する。
我々は特に言語に焦点をあて、その構造と内容が人工エージェントにおける新しい認知機能の発展にどう役立つかに注目した。
言語と体格の相互作用から生まれる新しい人工認知機能の例を明らかにすることで、アプローチを正当化する。
論文 参考訳(メタデータ) (2022-06-02T16:35:41Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。