論文の概要: What Drives the Use of Metaphorical Language? Negative Insights from
Abstractness, Affect, Discourse Coherence and Contextualized Word
Representations
- arxiv url: http://arxiv.org/abs/2205.11113v1
- Date: Mon, 23 May 2022 08:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 17:05:50.075726
- Title: What Drives the Use of Metaphorical Language? Negative Insights from
Abstractness, Affect, Discourse Coherence and Contextualized Word
Representations
- Title(参考訳): メタフォリカル言語の使用を促すものは何か?
抽象性, 影響, 談話のコヒーレンス, 文脈化語表現からの否定的洞察
- Authors: Prisca Piccirilli and Sabine Schulte im Walde
- Abstract要約: 特定の談話が与えられたら、どの談話特性が、リテラルな代替語ではなく、比喩的な言語の使用を引き起こすのか?
比喩的言語に対する多くのNLPアプローチは、認知的および(心理学的)言語学的洞察に依存し、談話の一貫性、抽象性、影響のモデルの定義に成功している。
本研究では,メタファー対同義語表現の文脈での活用を予測するために,確立された認知的・言語的特性に依存した5つの単純なモデルを構築した。
- 参考スコア(独自算出の注目度): 13.622570558506265
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Given a specific discourse, which discourse properties trigger the use of
metaphorical language, rather than using literal alternatives? For example,
what drives people to say "grasp the meaning" rather than "understand the
meaning" within a specific context? Many NLP approaches to metaphorical
language rely on cognitive and (psycho-)linguistic insights and have
successfully defined models of discourse coherence, abstractness and affect. In
this work, we build five simple models relying on established cognitive and
linguistic properties -- frequency, abstractness, affect, discourse coherence
and contextualized word representations -- to predict the use of a metaphorical
vs. synonymous literal expression in context. By comparing the models' outputs
to human judgments, our study indicates that our selected properties are not
sufficient to systematically explain metaphorical vs. literal language choices.
- Abstract(参考訳): 特定の談話が与えられたら、どの談話特性がリテラルの代わりにメタファー言語を使うのか?
例えば、特定のコンテキスト内で”意味を理解する”というよりも、“意味を磨く”と言うのがなぜでしょう?
比喩的言語に対する多くのNLPアプローチは、認知的および(心理学的)言語学的洞察に依存し、談話の一貫性、抽象性、影響のモデルを定義した。
本研究では,認知的・言語的特性(頻度,抽象性,影響,談話コヒーレンス,文脈的表現)に基づいた5つの単純なモデルを構築し,文脈におけるメタファと同義語リテラル表現の使用を予測した。
モデルの出力を人間の判断と比較することにより、我々の選択した特性はメタファーとリテラル言語の選択を体系的に説明するのに十分ではないことを示す。
関連論文リスト
- That was the last straw, we need more: Are Translation Systems Sensitive
to Disambiguating Context? [64.38544995251642]
我々は、源泉に存在している意味的あいまいさ(本研究における英語)について研究する。
我々は、リテラルと図形の両方にオープンなイディオムに焦点を当てている。
現在のMTモデルは、たとえ文脈が比喩的解釈を示しているとしても、英語のイディオムを文字通りに翻訳する。
論文 参考訳(メタデータ) (2023-10-23T06:38:49Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - LMs stand their Ground: Investigating the Effect of Embodiment in
Figurative Language Interpretation by Language Models [0.0]
表現言語は、その解釈が従来の順序や意味から逸脱しているため、言語モデルの課題である。
しかし、人間がメタファーを理解し解釈するのは、メタファーを具現化したメタファーから導き出すことができるためである。
本研究は、比喩文の動作がより具体化されている場合に、より大きな言語モデルが比喩文の解釈にいかに優れているかを示す。
論文 参考訳(メタデータ) (2023-05-05T11:44:12Z) - Shades of meaning: Uncovering the geometry of ambiguous word
representations through contextualised language models [6.760960482418417]
語彙的曖昧さは言語科学に深く永続的な挑戦をもたらす。
我々の研究は、一連のシミュレーションを通して、語彙的あいまいさの心理的理解に関する新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-04-26T14:47:38Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Are Representations Built from the Ground Up? An Empirical Examination
of Local Composition in Language Models [91.3755431537592]
構成的・非構成的句を表現することは言語理解にとって重要である。
まず,より長いフレーズのLM-内部表現を,その構成成分から予測する問題を定式化する。
意味的構成性の人間の判断と相関する予測精度を期待するが、大部分はそうではない。
論文 参考訳(メタデータ) (2022-10-07T14:21:30Z) - Features of Perceived Metaphoricity on the Discourse Level: Abstractness
and Emotionality [13.622570558506265]
比喩言語の研究は、比喩性に関する抽象性と感情性の関係を示している。
本稿では,言論の比喩性において,人間のアノテータが知覚するテキスト的・知覚的特徴について考察する。
論文 参考訳(メタデータ) (2022-05-18T14:09:10Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - On the Impact of Temporal Representations on Metaphor Detection [1.6959319157216468]
メタファー検出のための最先端のアプローチは、ニューラルネットワークに基づくシーケンシャルなメタファー分類器を使用して、リテラル(リテラル、またはコア)の意味と文脈的意味を比較する。
本研究では, 時間的, 静的な単語の埋め込みを, 意味の表現に用い, 詳細な探索分析によるメタファ検出課題について検討する。
その結果,異なる単語の埋め込みがメタファー検出タスクや時間的単語の埋め込みに影響を及ぼすことが示唆された。
論文 参考訳(メタデータ) (2021-11-05T08:43:21Z) - It's not Rocket Science : Interpreting Figurative Language in Narratives [48.84507467131819]
我々は2つの非構成的図形言語(イディオムとシミュラ)の解釈を研究する。
実験の結果、事前学習された言語モデルのみに基づくモデルは、これらのタスクにおいて人間よりもはるかにひどい性能を示すことがわかった。
また, 知識強化モデルを提案し, 具体的言語を解釈するための人的戦略を採用した。
論文 参考訳(メタデータ) (2021-08-31T21:46:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。