論文の概要: Montague semantics and modifier consistency measurement in neural
language models
- arxiv url: http://arxiv.org/abs/2212.04310v2
- Date: Mon, 3 Apr 2023 14:11:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 23:40:39.987520
- Title: Montague semantics and modifier consistency measurement in neural
language models
- Title(参考訳): ニューラルネットワークモデルにおけるモンタギュー意味論と修飾子一貫性測定
- Authors: Danilo S. Carvalho, Edoardo Manino, Julia Rozanova, Lucas Cordeiro,
Andr\'e Freitas
- Abstract要約: 本研究では,現代言語モデルにおける構成行動を測定する手法を提案する。
具体的には,形容詞・名詞句における形容詞修飾子現象に着目した。
実験結果から,現在のニューラル言語モデルが期待される言語理論に従って,限られた範囲でのみ動作することが示唆された。
- 参考スコア(独自算出の注目度): 1.6799377888527685
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, distributional language representation models have
demonstrated great practical success. At the same time, the need for
interpretability has elicited questions on their intrinsic properties and
capabilities. Crucially, distributional models are often inconsistent when
dealing with compositional phenomena in natural language, which has significant
implications for their safety and fairness. Despite this, most current research
on compositionality is directed towards improving their performance on
similarity tasks only. This work takes a different approach, and proposes a
methodology for measuring compositional behavior in contemporary language
models. Specifically, we focus on adjectival modifier phenomena in
adjective-noun phrases. We introduce three novel tests of compositional
behavior inspired by Montague semantics. Our experimental results indicate that
current neural language models behave according to the expected linguistic
theories to a limited extent only. This raises the question of whether these
language models are not able to capture the semantic properties we evaluated,
or whether linguistic theories from Montagovian tradition would not match the
expected capabilities of distributional models.
- Abstract(参考訳): 近年,分布型言語表現モデルは非常に実践的な成功を収めている。
同時に、解釈可能性の必要性は、固有の特性と能力に関する疑問を提起している。
重要なことに、分布モデルはしばしば自然言語の合成現象を扱う際に矛盾し、それがそれらの安全性と公正性に重大な影響を及ぼす。
それにもかかわらず、構成性に関する最近の研究は、類似性タスクのみの性能を改善することを目的としている。
本研究は異なるアプローチを採り、現代言語モデルにおける構成行動を測定する手法を提案する。
具体的には,形容詞・名詞句における形容詞修飾現象に注目した。
モンタギュー意味論に触発された作曲行動の3つの新しいテストを紹介する。
実験の結果,現在のニューラルランゲージモデルは,期待される言語理論に限定して振る舞うことが示された。
このことは、これらの言語モデルが私たちが評価した意味的性質を捉えられないのか、あるいはモンゴルの伝統からの言語理論が分布モデルの期待する能力と一致しないのかという疑問を提起する。
関連論文リスト
- UNcommonsense Reasoning: Abductive Reasoning about Uncommon Situations [65.07706249058549]
異常、予期せぬ、そしてありそうもない状況をモデル化する能力について検討する。
予期せぬ結果のコンテキストが与えられた場合、このタスクは自然言語の説明を生成するために故意に推論する必要がある。
私たちはUNcommonsenseという新しい英語コーパスをリリースします。
論文 参考訳(メタデータ) (2023-11-14T19:00:55Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Integrating Linguistic Theory and Neural Language Models [2.870517198186329]
理論的言語学とニューラル言語モデルが相互にどのように関係しているかを説明するためのケーススタディをいくつか提示する。
この論文は、言語モデルにおける構文意味インタフェースの異なる側面を探求する3つの研究に貢献する。
論文 参考訳(メタデータ) (2022-07-20T04:20:46Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Schr\"odinger's Tree -- On Syntax and Neural Language Models [10.296219074343785]
言語モデルは、NLPのワークホースとして登場し、ますます流動的な生成能力を示している。
我々は、多くの次元にまたがる明瞭さの欠如を観察し、研究者が形成する仮説に影響を及ぼす。
本稿では,構文研究における様々な研究課題の意義について概説する。
論文 参考訳(メタデータ) (2021-10-17T18:25:23Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - Uncovering Constraint-Based Behavior in Neural Models via Targeted
Fine-Tuning [9.391375268580806]
本研究は,言語知識が不明な言語内での競合する言語プロセスを示す。
人間の行動は言語間で類似していることがわかったが、モデル行動の言語間差異は見いだされている。
以上の結果から,言語における言語的制約と相対的ランクの双方をモデルが学習する必要があることが示唆された。
論文 参考訳(メタデータ) (2021-06-02T14:52:11Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - Do Neural Models Learn Systematicity of Monotonicity Inference in
Natural Language? [41.649440404203595]
本稿では,ニューラルネットワークが自然言語の単調推論の体系性を学習できるかどうかを評価する手法を提案する。
単調性推論の4つの側面を考察し、モデルが異なるトレーニング/テスト分割における語彙的および論理的現象を体系的に解釈できるかどうかを検証する。
論文 参考訳(メタデータ) (2020-04-30T14:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。