論文の概要: Language (Re)modelling: Towards Embodied Language Understanding
- arxiv url: http://arxiv.org/abs/2005.00311v2
- Date: Thu, 9 Jul 2020 12:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 22:51:52.119139
- Title: Language (Re)modelling: Towards Embodied Language Understanding
- Title(参考訳): 言語(再)モデリング: 具体化言語理解に向けて
- Authors: Ronen Tamari, Chen Shani, Tom Hope, Miriam R. L. Petruck, Omri Abend,
Dafna Shahaf
- Abstract要約: 本研究は, 具体的認知言語学(ECL)の理念に基づく表現と学習へのアプローチを提案する。
ECLによると、自然言語は本質的に(プログラミング言語のように)実行可能である。
本稿では,比喩的推論とシミュレーションによるグラウンドディングの利用が,NLUシステムに大きな恩恵をもたらすことを論じる。
- 参考スコア(独自算出の注目度): 33.50428967270188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While natural language understanding (NLU) is advancing rapidly, today's
technology differs from human-like language understanding in fundamental ways,
notably in its inferior efficiency, interpretability, and generalization. This
work proposes an approach to representation and learning based on the tenets of
embodied cognitive linguistics (ECL). According to ECL, natural language is
inherently executable (like programming languages), driven by mental simulation
and metaphoric mappings over hierarchical compositions of structures and
schemata learned through embodied interaction. This position paper argues that
the use of grounding by metaphoric inference and simulation will greatly
benefit NLU systems, and proposes a system architecture along with a roadmap
towards realizing this vision.
- Abstract(参考訳): 自然言語理解(NLU)は急速に進歩しているが、今日の技術は人間のような言語理解とは根本的に異なる。
本研究は, 具体的認知言語学(ECL)の理念に基づく表現と学習へのアプローチを提案する。
ECLによると、自然言語は本質的に(プログラミング言語のような)実行可能であり、心的シミュレーションと比喩的なマッピングによって、構造やスキーマの階層的な構成が具体的相互作用を通じて学習される。
本稿では,メタファー推論とシミュレーションによる接地の利用がnluシステムに大きな利益をもたらすと論じ,そのビジョンを実現するためのロードマップとともにシステムアーキテクチャを提案する。
関連論文リスト
- Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - Constructive Approach to Bidirectional Causation between Qualia Structure and Language Emergence [5.906966694759679]
本稿では,言語出現と主観的経験の関連構造との双方向因果関係について考察する。
我々は、個人間の内部表現を整合させる過程を通じて、たとえば構文・意味構造のような分布意味を持つ言語が出現したかもしれないと仮定する。
論文 参考訳(メタデータ) (2024-09-14T11:03:12Z) - Large Language Models are Interpretable Learners [53.56735770834617]
本稿では,Large Language Models(LLM)とシンボルプログラムの組み合わせによって,表現性と解釈可能性のギャップを埋めることができることを示す。
自然言語プロンプトを持つ事前訓練されたLLMは、生の入力を自然言語の概念に変換することができる解釈可能な膨大なモジュールセットを提供する。
LSPが学んだ知識は自然言語の記述と記号規則の組み合わせであり、人間(解釈可能)や他のLLMに容易に転送できる。
論文 参考訳(メタデータ) (2024-06-25T02:18:15Z) - Interpretability of Language Models via Task Spaces [14.543168558734001]
本稿では,解釈言語モデル (LM) の代替手法を提案する。
我々は、LM処理の品質に焦点を合わせ、言語能力に焦点をあてる。
言語現象間の関係を照らす「言語的タスク空間」を構築した。
論文 参考訳(メタデータ) (2024-06-10T16:34:30Z) - Hierarchical Text-to-Vision Self Supervised Alignment for Improved Histopathology Representation Learning [64.1316997189396]
病理組織像のための新しい言語型自己教師学習フレームワーク,階層型言語型自己監督(HLSS)を提案する。
その結果,OpenSRH と TCGA の2つの医用画像ベンチマークにおいて,最先端の性能が得られた。
論文 参考訳(メタデータ) (2024-03-21T17:58:56Z) - Language Evolution with Deep Learning [49.879239655532324]
計算モデリングは言語の出現の研究において重要な役割を担っている。
構造化言語の出現を誘発する可能性のある条件と学習プロセスをシミュレートすることを目的としている。
この章では、最近機械学習の分野に革命をもたらした別の種類の計算モデル、ディープ・ラーニング・モデルについて論じる。
論文 参考訳(メタデータ) (2024-03-18T16:52:54Z) - Embodied Concept Learner: Self-supervised Learning of Concepts and
Mapping through Instruction Following [101.55727845195969]
本研究では,対話型3D環境におけるEmbodied Learner Concept (ECL)を提案する。
ロボットエージェントは視覚概念をグラウンディングし、セマンティックマップを構築し、タスクを完了させるためにアクションを計画することができる。
ECLは完全に透明で、長期計画において段階的に解釈可能である。
論文 参考訳(メタデータ) (2023-04-07T17:59:34Z) - Low-Dimensional Structure in the Space of Language Representations is
Reflected in Brain Responses [62.197912623223964]
言語モデルと翻訳モデルは,単語の埋め込み,構文的・意味的タスク,将来的な単語埋め込みとの間を円滑に介在する低次元構造を示す。
この表現埋め込みは、各特徴空間が、fMRIを用いて記録された自然言語刺激に対する人間の脳反応にどれだけうまく対応しているかを予測することができる。
これは、埋め込みが脳の自然言語表現構造の一部を捉えていることを示唆している。
論文 参考訳(メタデータ) (2021-06-09T22:59:12Z) - Ecological Semantics: Programming Environments for Situated Language
Understanding [25.853707930426175]
基底言語学習アプローチは、よりリッチでより構造化されたトレーニング環境に学習を集中させることによって、より深い理解の約束を提供する。
環境を意味表現における「第一級市民」として扱うことを提案する。
我々は、モデルが手当の言語で理解し、プログラムし始めなければならないと論じている。
論文 参考訳(メタデータ) (2020-03-10T08:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。