論文の概要: On the Computation of Meaning, Language Models and Incomprehensible Horrors
- arxiv url: http://arxiv.org/abs/2304.12686v2
- Date: Thu, 11 Apr 2024 04:41:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 19:37:39.761907
- Title: On the Computation of Meaning, Language Models and Incomprehensible Horrors
- Title(参考訳): 意味, 言語モデル, 理解不能なホラーの計算について
- Authors: Michael Timothy Bennett,
- Abstract要約: 我々は、意味の基本理論を、人工知能(AGI)の数学的形式主義と統合する。
我々の発見は、意味と知性の関係と、意味を理解して意図する機械を構築する方法に光を当てた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We integrate foundational theories of meaning with a mathematical formalism of artificial general intelligence (AGI) to offer a comprehensive mechanistic explanation of meaning, communication, and symbol emergence. This synthesis holds significance for both AGI and broader debates concerning the nature of language, as it unifies pragmatics, logical truth conditional semantics, Peircean semiotics, and a computable model of enactive cognition, addressing phenomena that have traditionally evaded mechanistic explanation. By examining the conditions under which a machine can generate meaningful utterances or comprehend human meaning, we establish that the current generation of language models do not possess the same understanding of meaning as humans nor intend any meaning that we might attribute to their responses. To address this, we propose simulating human feelings and optimising models to construct weak representations. Our findings shed light on the relationship between meaning and intelligence, and how we can build machines that comprehend and intend meaning.
- Abstract(参考訳): 我々は、意味の基本的な理論と、人工知能(AGI)の数学的フォーマリズムを統合し、意味、コミュニケーション、シンボルの出現に関する包括的な力学的な説明を提供する。
この合成は、プラグマティクス、論理的真理条件意味論、パーセアン・セミオティックスを統一し、伝統的に機械的説明を避けてきた現象に対処する計算可能モデルとして、AGIと言語の性質に関するより広範な議論の両方に重要である。
機械が有意義な発話を生成できる条件や人間の意味を理解できる条件を調べることで、現在世代の言語モデルが人間と同じ意味の理解を持っていないこと、そして我々がその反応に起因する可能性のある意味を意図していないことを確かめる。
そこで我々は,人間の感情をシミュレートし,弱い表現を構築するためにモデルを最適化する手法を提案する。
我々の発見は、意味と知性の関係と、意味を理解して意図する機械を構築する方法に光を当てた。
関連論文リスト
- Meaning and understanding in large language models [0.0]
人工知能の生成的大言語モデル(LLM)の最近の発展は、機械による言語理解に関する伝統的な哲学的仮定を改訂する必要があるという信念を導いた。
本稿では,機械語の性能を単なる統語的操作と見なす傾向と理解のシミュレーションを批判的に評価する。
論文 参考訳(メタデータ) (2023-10-26T14:06:14Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Semantics, Ontology and Explanation [0.0]
本稿では, オントロジアンパックと哲学・科学における他の形態の説明との関係について論じる。
また,人工知能分野におけるオントロジアンパックと他の形態の説明との関係についても論じる。
論文 参考訳(メタデータ) (2023-04-21T16:54:34Z) - Scientific Explanation and Natural Language: A Unified
Epistemological-Linguistic Perspective for Explainable AI [2.7920304852537536]
本稿では,理論と実践のギャップを科学的説明の概念に埋めることを目的として,科学的領域に焦点を当てた。
定量的および定性的手法の混合により、本研究では以下の主要な結論を導出することができる。
論文 参考訳(メタデータ) (2022-05-03T22:31:42Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Towards Abstract Relational Learning in Human Robot Interaction [73.67226556788498]
人間は環境における実体を豊かに表現する。
ロボットが人間とうまく対話する必要がある場合、同様の方法で実体、属性、一般化を表現する必要がある。
本研究では,人間とロボットの相互作用を通じて,これらの表現をどのように獲得するかという課題に対処する。
論文 参考訳(メタデータ) (2020-11-20T12:06:46Z) - Understanding understanding: a renormalization group inspired model of
(artificial) intelligence [0.0]
本稿では,科学的および人工知能システムにおける理解の意味について述べる。
理解の数学的定義を与え、共通知恵とは対照的に、入力集合上の確率空間を定義する。
この枠組みに科学的理解がどのように適合するかを示し、科学的課題とパターン認識の違いを実証する。
論文 参考訳(メタデータ) (2020-10-26T11:11:46Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。