論文の概要: The Debate Over Understanding in AI's Large Language Models
- arxiv url: http://arxiv.org/abs/2210.13966v2
- Date: Thu, 27 Oct 2022 15:51:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 12:01:18.269412
- Title: The Debate Over Understanding in AI's Large Language Models
- Title(参考訳): AIの大規模言語モデルにおける理解に関する議論
- Authors: Melanie Mitchell and David C. Krakauer
- Abstract要約: 我々は、AI研究コミュニティにおける、大規模な事前訓練された言語モデルが"理解"言語と言えるかどうかについて、現在、熱い議論を調査している。
我々は、異なる理解様式に関する洞察を提供する新しい知性科学を開発することができると論じる。
- 参考スコア(独自算出の注目度): 0.18275108630751835
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We survey a current, heated debate in the AI research community on whether
large pre-trained language models can be said to "understand" language -- and
the physical and social situations language encodes -- in any important sense.
We describe arguments that have been made for and against such understanding,
and key questions for the broader sciences of intelligence that have arisen in
light of these arguments. We contend that a new science of intelligence can be
developed that will provide insight into distinct modes of understanding, their
strengths and limitations, and the challenge of integrating diverse forms of
cognition.
- Abstract(参考訳): 我々は、AI研究コミュニティにおいて、大規模な事前訓練された言語モデルが言語 -- 物理的および社会的状況の言語エンコード -- を"理解"できるかどうかについて、現在、熱い議論を調査している。
このような理解のために行われ、反対された議論と、これらの議論に照らして生じたより広い知性科学の鍵となる疑問について述べる。
我々は、異なる理解の様式、その強みと限界、そして様々な形態の認知を統合することの難しさを洞察する新しい知性科学を開発することができると論じる。
関連論文リスト
- Do great minds think alike? Investigating Human-AI Complementarity in Question Answering with CAIMIRA [43.116608441891096]
人間は知識に基づく帰納的、概念的推論においてAIシステムより優れています。
GPT-4やLLaMAのような最先端のLLMは、ターゲット情報検索において優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-09T03:53:26Z) - Visual-O1: Understanding Ambiguous Instructions via Multi-modal Multi-turn Chain-of-thoughts Reasoning [53.45295657891099]
本稿では,マルチモーダルなマルチターン・チェーン・オブ・シークレット・推論・フレームワークであるVisual-O1を提案する。
人間のマルチモーダルなマルチターン推論をシミュレートし、高度にインテリジェントなモデルに即時体験を提供する。
私たちの研究は、不確実性と曖昧さのある現実のシナリオにおいて、人工知能が人間のように機能する可能性を強調します。
論文 参考訳(メタデータ) (2024-10-04T11:18:41Z) - Cognition is All You Need -- The Next Layer of AI Above Large Language
Models [0.0]
我々は,大規模言語モデル以外のニューロシンボリック認知のためのフレームワークであるCognitive AIを紹介する。
我々は、認知AIがAGIのようなAI形態の進化に必須の先駆者であり、AGIは独自の確率論的アプローチでは達成できないと主張する。
我々は、大規模言語モデル、AIの採用サイクル、および商用の認知AI開発に関する議論で締めくくります。
論文 参考訳(メタデータ) (2024-03-04T16:11:57Z) - A Philosophical Introduction to Language Models -- Part I: Continuity
With Classic Debates [0.05657375260432172]
この記事では、哲学者の言語モデルに関するプライマーとしての役割と、その重要性に関する世論調査としての役割について述べる。
言語モデルの成功は、人工ニューラルネットワークに関する長年の仮定に挑戦するものだ、と我々は主張する。
これは、共用紙(Part II)のステージを設定し、言語モデルの内部動作を探索するための新しい経験的手法に転換する。
論文 参考訳(メタデータ) (2024-01-08T14:12:31Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - The Language Labyrinth: Constructive Critique on the Terminology Used in
the AI Discourse [0.0]
この論文は、AIの議論は依然として「学習」、「学習」、「決定」といったメタファーに批判的な距離が欠如していることが特徴であると主張している。
その結果、責任や潜在的なユースケースに関するリフレクションが大幅に歪められる。
これは重要なコンピュータ科学と言語哲学の交わりにおける概念的な研究である。
論文 参考訳(メタデータ) (2023-07-18T14:32:21Z) - Improving Factuality and Reasoning in Language Models through Multiagent
Debate [95.10641301155232]
複数の言語モデルインスタンスが共通の最終回答に到達するために、複数のラウンドで個別の応答と推論プロセスを提案し、議論する言語応答を改善するための補完的なアプローチを提案する。
以上の結果から,本手法は様々なタスクにおける数学的・戦略的推論を著しく向上させることが示唆された。
我々のアプローチは、既存のブラックボックスモデルに直接適用され、調査するすべてのタスクに対して、同じ手順とプロンプトを使用することができる。
論文 参考訳(メタデータ) (2023-05-23T17:55:11Z) - Language Cognition and Language Computation -- Human and Machine
Language Understanding [51.56546543716759]
言語理解は認知科学とコンピュータ科学の分野で重要な科学的問題である。
これらの規律を組み合わせることで、インテリジェントな言語モデルを構築する上で、新たな洞察が得られますか?
論文 参考訳(メタデータ) (2023-01-12T02:37:00Z) - Towards Language-driven Scientific AI [0.0]
私たちは、人間の能力に挑戦して新しい発見を行う複雑な科学的タスクに対処できるAIシステムを設計することにしました。
私たちのアプローチの中心は、自然言語を、科学的なAIと人間の科学者のコア表現、推論、交換フォーマットとする考え方です。
論文 参考訳(メタデータ) (2022-10-27T11:11:08Z) - MRKL Systems: A modular, neuro-symbolic architecture that combines large
language models, external knowledge sources and discrete reasoning [50.40151403246205]
巨大な言語モデル(LM)は、自然言語ベースの知識タスクのゲートウェイとして機能する、AIの新しい時代を支えている。
離散的な知識と推論モジュールによって補完される、複数のニューラルモデルによる柔軟なアーキテクチャを定義する。
本稿では,MRKL(Modular Reasoning, Knowledge and Language)システムと呼ばれる,このニューロシンボリックアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-05-01T11:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。