論文の概要: Language processing in humans and computers
- arxiv url: http://arxiv.org/abs/2405.14233v1
- Date: Thu, 23 May 2024 07:08:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 18:34:03.171611
- Title: Language processing in humans and computers
- Title(参考訳): 人間とコンピュータにおける言語処理
- Authors: Dusko Pavlovic,
- Abstract要約: このノートは、言語モデルの高レベルな概要を提供し、学習機械の低レベルなモデルの概要を示す。
幻覚を認識し、安全に夢を見ることができるようになった後、言語学習機械は、誤った信念と自己確認理論のより広範なシステムを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine-learned language models have transformed everyday life: they steer us when we study, drive, manage money. They have the potential to transform our civilization. But they hallucinate. Their realities are virtual. This note provides a high-level overview of language models and outlines a low-level model of learning machines. It turns out that, after they become capable of recognizing hallucinations and dreaming safely, as humans tend to be, the language-learning machines proceed to generate broader systems of false beliefs and self-confirming theories, as humans tend to do.
- Abstract(参考訳): 機械学習の言語モデルは日々の生活を変えてきた。
彼らは私たちの文明を変える可能性を秘めている。
しかし幻覚を起こす。
彼らの現実はバーチャルだ。
このノートは、言語モデルの高レベルな概要を提供し、学習機械の低レベルなモデルの概要を示す。
幻覚を認識でき、人間がいる傾向にあるように、安全に夢を見ることができるようになった後、言語学習機械は、人間がする傾向にあるように、誤った信念と自己確認理論のより広範なシステムを生成する。
関連論文リスト
- Machines of Meaning [0.0]
意味の機械」の仕様の課題について論じる。
我々は、意味の機械の研究において、人間中心主義からの分離の必要性を強調した。
本稿では,ニューラルネットワークモデルなどのアプローチに関する議論を促進するために,「意味」の視点を提案する。
論文 参考訳(メタデータ) (2024-12-10T23:23:28Z) - Passed the Turing Test: Living in Turing Futures [0.0]
私たちは現在、マシンがそうでないもののために通過できる、多くの可能なチューリングの未来の1つに生きています。
しかし、チューリングが模擬試験に合格すると想像していた学習機械は、低エネルギーのヒト大脳皮質の自然発生に触発された機械であった。
論文 参考訳(メタデータ) (2024-09-11T22:56:30Z) - Large Language Models for Scientific Synthesis, Inference and
Explanation [56.41963802804953]
大規模言語モデルがどのように科学的合成、推論、説明を行うことができるかを示す。
我々は,この「知識」を科学的文献から合成することで,大きな言語モデルによって強化できることを示す。
このアプローチは、大きな言語モデルが機械学習システムの予測を説明することができるというさらなる利点を持っている。
論文 参考訳(メタデータ) (2023-10-12T02:17:59Z) - Learning to Model the World with Language [100.76069091703505]
人間と対話し、世界で行動するためには、エージェントは人々が使用する言語の範囲を理解し、それを視覚の世界に関連付ける必要がある。
私たちのキーとなるアイデアは、エージェントが将来を予測するのに役立つ信号として、このような多様な言語を解釈すべきである、ということです。
我々は、将来のテキストや画像表現を予測するマルチモーダル世界モデルを学ぶエージェントであるDynalangでこれをインスタンス化する。
論文 参考訳(メタデータ) (2023-07-31T17:57:49Z) - What Artificial Neural Networks Can Tell Us About Human Language
Acquisition [47.761188531404066]
自然言語処理のための機械学習の急速な進歩は、人間がどのように言語を学ぶかについての議論を変革する可能性がある。
計算モデルによる学習可能性の関連性を高めるためには,人間に対して大きな優位性を持たず,モデル学習者を訓練する必要がある。
論文 参考訳(メタデータ) (2022-08-17T00:12:37Z) - Do As I Can, Not As I Say: Grounding Language in Robotic Affordances [119.29555551279155]
大規模な言語モデルは、世界に関する豊富な意味知識を符号化することができる。
このような知識は、自然言語で表現された高レベルで時間的に拡張された命令を動作させようとするロボットにとって極めて有用である。
低レベルのスキルを大規模言語モデルと組み合わせることで,言語モデルが複雑かつ時間的に拡張された命令を実行する手順について高いレベルの知識を提供することを示す。
論文 参考訳(メタデータ) (2022-04-04T17:57:11Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Language Models are not Models of Language [0.0]
トランスファーラーニングにより、言語モデリングタスクでトレーニングされた大規模なディープラーニングニューラルネットワークにより、パフォーマンスが大幅に向上した。
深層学習モデルは言語の理論的モデルではないので、言語モデルという用語は誤解を招く。
論文 参考訳(メタデータ) (2021-12-13T22:39:46Z) - PIGLeT: Language Grounding Through Neuro-Symbolic Interaction in a 3D
World [86.21137454228848]
我々はPIGLeTを物理力学モデルと別言語モデルに分類する。
PIGLeTは文を読み、次に何が起こるか神経的にシミュレートし、その結果を文字通りの記号表現を通して伝達する。
80%以上の英語の文から「次に何が起こるか」を正確に予測することができ、100倍以上のテキスト・テキスト・アプローチを10%以上上回っている。
論文 参考訳(メタデータ) (2021-06-01T02:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。