論文の概要: Word meaning in minds and machines
- arxiv url: http://arxiv.org/abs/2008.01766v3
- Date: Sat, 17 Apr 2021 21:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 23:11:12.970004
- Title: Word meaning in minds and machines
- Title(参考訳): 心と機械の中の言葉の意味
- Authors: Brenden M. Lake and Gregory L. Murphy
- Abstract要約: 我々は、現代のNLPシステムは人間の単語類似性のモデルとしてかなり成功したが、他の多くの点で不足していると主張している。
現在のモデルは、大きなコーパスのテキストベースのパターンに強く結びついており、人々が言葉を通して表現する欲求、目標、信念に弱く結びついている。
我々は、NLPシステムを基盤とするより有望なアプローチについて議論し、それらがより人間らしく概念的な言葉の意味の基盤でより成功していくと論じる。
- 参考スコア(独自算出の注目度): 18.528929583956725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machines have achieved a broad and growing set of linguistic competencies,
thanks to recent progress in Natural Language Processing (NLP). Psychologists
have shown increasing interest in such models, comparing their output to
psychological judgments such as similarity, association, priming, and
comprehension, raising the question of whether the models could serve as
psychological theories. In this article, we compare how humans and machines
represent the meaning of words. We argue that contemporary NLP systems are
fairly successful models of human word similarity, but they fall short in many
other respects. Current models are too strongly linked to the text-based
patterns in large corpora, and too weakly linked to the desires, goals, and
beliefs that people express through words. Word meanings must also be grounded
in perception and action and be capable of flexible combinations in ways that
current systems are not. We discuss more promising approaches to grounding NLP
systems and argue that they will be more successful with a more human-like,
conceptual basis for word meaning.
- Abstract(参考訳): 自然言語処理(NLP)の最近の進歩により、機械は幅広い言語能力の集合を達成してきた。
心理学者は、これらのモデルに対する関心が高まり、そのアウトプットを類似性、関連性、プライミング、理解といった心理的判断と比較し、モデルが心理学理論として機能するかどうかという疑問を提起している。
本稿では,人間と機械が言葉の意味を表現する方法を比較する。
現代のNLPシステムは、人間の単語類似性のモデルとしてかなり成功したが、他の多くの点で不足している。
現在のモデルは、大きなコーパスのテキストベースのパターンと強く結びついており、人々が言葉を通じて表現する欲求、目標、信念と弱く結びついています。
単語の意味は認識と行動にも根ざし、現在のシステムがそうでない方法で柔軟な組み合わせが可能である必要がある。
我々は、NLPシステムを基盤とするより有望なアプローチについて議論し、それらがより人間らしく概念的な言葉の意味の基盤でより成功していくと論じる。
関連論文リスト
- A Philosophical Introduction to Language Models -- Part I: Continuity
With Classic Debates [0.05657375260432172]
この記事では、哲学者の言語モデルに関するプライマーとしての役割と、その重要性に関する世論調査としての役割について述べる。
言語モデルの成功は、人工ニューラルネットワークに関する長年の仮定に挑戦するものだ、と我々は主張する。
これは、共用紙(Part II)のステージを設定し、言語モデルの内部動作を探索するための新しい経験的手法に転換する。
論文 参考訳(メタデータ) (2024-01-08T14:12:31Z) - Visual cognition in multimodal large language models [12.603212933816206]
近年の進歩は、人間のような認知能力をエミュレートする可能性への関心を再燃させた。
本稿では、直観物理学、因果推論、直観心理学の分野における視覚に基づく大規模言語モデルの現状を評価する。
論文 参考訳(メタデータ) (2023-11-27T18:58:34Z) - A Sentence is Worth a Thousand Pictures: Can Large Language Models Understand Hum4n L4ngu4ge and the W0rld behind W0rds? [2.7342737448775534]
LLM(Large Language Models)は、人間の言語的パフォーマンスに関する主張と関連付けられている。
対象認知システムの理論的に有意な表現としてLLMの寄与を分析する。
我々は,より高い処理レベルからのトップダウンフィードバックを通じて,モデルが全体像を見る能力を評価する。
論文 参考訳(メタデータ) (2023-07-26T18:58:53Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - MEWL: Few-shot multimodal word learning with referential uncertainty [24.94171567232573]
本研究では,マチンエ語学習ベンチマークを導入し,接地された視覚シーンにおいて,機械が単語の意味を学習する方法を評価する。
MEWLは、単語学習における人間のコア認知ツールキットをカバーしている。
マルチモーダルエージェントと非モーダルエージェントのパフォーマンスを比較分析して評価することにより,人・機械語学習における急激な違いに気づく。
論文 参考訳(メタデータ) (2023-06-01T09:54:31Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - Talking About Large Language Models [7.005266019853958]
より適応的な大きな言語モデルが増えればなるほど、人類同型への脆弱さが増す。
本稿は,LLMとその構成するシステムがどのように機能するかを思い出すために,繰り返し遡るプラクティスを提唱する。
科学的精度の向上は、人工知能に関する議論において、より哲学的なニュアンスを促進することを期待している。
論文 参考訳(メタデータ) (2022-12-07T10:01:44Z) - Emergence of Machine Language: Towards Symbolic Intelligence with Neural
Networks [73.94290462239061]
本稿では、ニューラルネットワークを用いてシンボルとコネクショナリズムの原理を組み合わせることで、離散表現を導出することを提案する。
対話型環境とタスクを設計することにより、機械が自発的で柔軟でセマンティックな言語を生成できることを実証した。
論文 参考訳(メタデータ) (2022-01-14T14:54:58Z) - Perspective-taking and Pragmatics for Generating Empathetic Responses
Focused on Emotion Causes [50.569762345799354]
i) 相手の感情が発話から引き起こされる原因となる単語を特定することと, (ii) 応答生成における特定の単語を反映することである。
社会的認知からインスピレーションを得て、生成的推定を用いて、感情が単語レベルのラベルのない発話から単語を推論する。
論文 参考訳(メタデータ) (2021-09-18T04:22:49Z) - My Teacher Thinks The World Is Flat! Interpreting Automatic Essay
Scoring Mechanism [71.34160809068996]
最近の研究では、自動スコアリングシステムが常識的な敵対的サンプルになりやすいことが示されています。
近年の解釈能力の進歩を活かし,コヒーレンスやコンテント,関連性といった特徴がスコアリングの自動化にどの程度重要であるかを見出す。
また、モデルが意味的に世界知識や常識に基づかないことから、世界のような虚偽の事実を追加することは、それを減らすよりもむしろスコアを増加させる。
論文 参考訳(メタデータ) (2020-12-27T06:19:20Z) - Bongard-LOGO: A New Benchmark for Human-Level Concept Learning and
Reasoning [78.13740873213223]
ボナード問題(BP)は、インテリジェントシステムにおける視覚認知へのインスピレーションとして導入された。
我々は人間レベルの概念学習と推論のための新しいベンチマークBongard-LOGOを提案する。
論文 参考訳(メタデータ) (2020-10-02T03:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。