論文の概要: Predicting emergent linguistic compositions through time: Syntactic
frame extension via multimodal chaining
- arxiv url: http://arxiv.org/abs/2109.04652v1
- Date: Fri, 10 Sep 2021 03:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 22:56:42.115470
- Title: Predicting emergent linguistic compositions through time: Syntactic
frame extension via multimodal chaining
- Title(参考訳): 時間による創発的言語構成の予測--マルチモーダル連鎖による構文フレーム拡張
- Authors: Lei Yu, Yang Xu
- Abstract要約: 連鎖と多モーダル知識の認知機構を利用して、時間を通して構成表現を予測する枠組みを開発する。
本稿では,「知覚」,「概念」,「言語」から連鎖と知識の理論に基づく構文的フレーム拡張モデル(SFEM)を提案する。
マルチモーダルSFEMは、純粋言語的・非言語的知識を用いた競合モデルよりも、新たに出現した動詞構文と引数を予測できることを示す。
- 参考スコア(独自算出の注目度): 8.254139827478355
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural language relies on a finite lexicon to express an unbounded set of
emerging ideas. One result of this tension is the formation of new
compositions, such that existing linguistic units can be combined with emerging
items into novel expressions. We develop a framework that exploits the
cognitive mechanisms of chaining and multimodal knowledge to predict emergent
compositional expressions through time. We present the syntactic frame
extension model (SFEM) that draws on the theory of chaining and knowledge from
"percept", "concept", and "language" to infer how verbs extend their frames to
form new compositions with existing and novel nouns. We evaluate SFEM
rigorously on the 1) modalities of knowledge and 2) categorization models of
chaining, in a syntactically parsed English corpus over the past 150 years. We
show that multimodal SFEM predicts newly emerged verb syntax and arguments
substantially better than competing models using purely linguistic or unimodal
knowledge. We find support for an exemplar view of chaining as opposed to a
prototype view and reveal how the joint approach of multimodal chaining may be
fundamental to the creation of literal and figurative language uses including
metaphor and metonymy.
- Abstract(参考訳): 自然言語は、未有界なアイデアの集合を表現するために有限語彙に依存する。
この緊張の結果の1つは、既存の言語単位と新興の項目を組み合わせて新しい表現にすることができるように、新しい構成を形成することである。
連鎖とマルチモーダル知識の認知機構を活用し,創発的構成表現を時間を通じて予測する枠組みを開発した。
構文フレーム拡張モデル(sfem, syntactic frame extension model,sfem)について述べる。これは「知覚」,「概念」,「言語」から連鎖と知識の理論を引き合いに出し、動詞がどのようにフレームを拡張して既存の名詞や新しい名詞で新しい構成を形成するかを推測するものである。
SFEMを厳格に評価する
1)知識のモダリティ、及び
2)過去150年間に構文解析された英語コーパスにおける連鎖の分類モデル。
マルチモーダルSFEMは、純粋言語的・非言語的知識を用いた競合モデルよりも、新たに出現した動詞構文と引数を予測できることを示す。
プロトタイプの視点とは対照的に,連鎖の卓越した見方を支持し,マルチモーダル連鎖の連立アプローチがメタファーやメトニミーを含むリテラルおよび図形言語の使用の創出に不可欠であることを明らかにする。
関連論文リスト
- Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - The Problem of Alignment [1.2277343096128712]
大規模言語モデルは、大きなコーパスから統計的パターンとして学習されたシーケンスを生成する。
最初のトレーニングモデルが人間の価値観と一致しなくてはならない場合、他のモデルよりも一定の継続が望ましい。
ユーザとモデル間の双方向インタラクションとして,この構造化の実践について検討する。
論文 参考訳(メタデータ) (2023-12-30T11:44:59Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - From Word Models to World Models: Translating from Natural Language to
the Probabilistic Language of Thought [124.40905824051079]
言語インフォームド・シンキングのための計算フレームワークである「構成」を合理的に提案する。
我々は、自然言語から確率論的思考言語への文脈感応的なマッピングとして、言語の意味を定式化する。
LLMは、現実的に適切な言語的意味をキャプチャする文脈依存翻訳を生成することができることを示す。
認知的なモチベーションを持つシンボリックモジュールを統合するために、我々のフレームワークを拡張します。
論文 参考訳(メタデータ) (2023-06-22T05:14:00Z) - Geometry of Language [0.0]
様々なソースからのアイデアを組み合わせながら、新しい合成で混ざり合った言語について、新しい視点を提示する。
問題は、エレガントな形式主義、普遍文法、あるいは人間の言語学の重要な側面を説明するメカニズムを定式化できるかどうかである。
このようなメカニズムは、その幾何学的性質によって、既存の論理的・文法的アプローチとは異なる。
論文 参考訳(メタデータ) (2023-03-09T12:22:28Z) - Variational Cross-Graph Reasoning and Adaptive Structured Semantics
Learning for Compositional Temporal Grounding [143.5927158318524]
テンポラルグラウンドティング(Temporal grounding)とは、クエリ文に従って、未編集のビデオから特定のセグメントを特定するタスクである。
新たに構成時間グラウンドタスクを導入し,2つの新しいデータセット分割を構築した。
ビデオや言語に内在する構造的意味論は、構成的一般化を実現する上で重要な要素である、と我々は主張する。
論文 参考訳(メタデータ) (2023-01-22T08:02:23Z) - Syntactic Persistence in Language Models: Priming as a Window into
Abstract Language Representations [0.38498574327875945]
本稿では,現代のニューラル言語モデルが統語的プライミングにどの程度影響するかについて検討する。
プライミング強度と相互作用する様々な言語要因を制御できる大規模コーパスであるPrime-LMを新たに導入する。
単語と意味の相違があるが,同じ構文構造を持つ複数の文をプライミングした場合,驚くほど強いプライミング効果が報告される。
論文 参考訳(メタデータ) (2021-09-30T10:38:38Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Multi-sense embeddings through a word sense disambiguation process [2.2344764434954256]
最も適した感覚。
(MSSA)は、その文脈の意味的効果を考慮して、それぞれの単語をその特定の感覚で曖昧にし、注釈する。
我々は,単語類似性タスクの6つの異なるベンチマークでアプローチを検証し,そのアプローチが最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2021-01-21T16:22:34Z) - Compositionality and Generalization in Emergent Languages [42.68870559695238]
深層マルチエージェントシミュレーションで現れる言語が、新しいプリミティブの組み合わせに類似する能力を持っているかどうかを考察する。
創発的言語の合成度合いと一般化能力の相関関係は見つからない。
構成的な言語が多ければ多いほど、新しい学習者が習得しやすくなります。
論文 参考訳(メタデータ) (2020-04-20T08:30:14Z) - A Benchmark for Systematic Generalization in Grounded Language
Understanding [61.432407738682635]
人間は慣れ親しんだ部分から成り立つ不慣れな状況を記述する表現を容易に解釈する。
対照的に、現代のニューラルネットワークは、新しい構成を理解するのに苦労している。
位置言語理解における合成一般化を評価するための新しいベンチマークであるgSCANを導入する。
論文 参考訳(メタデータ) (2020-03-11T08:40:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。