論文の概要: We went to look for meaning and all we got were these lousy
representations: aspects of meaning representation for computational
semantics
- arxiv url: http://arxiv.org/abs/2109.04949v1
- Date: Fri, 10 Sep 2021 15:51:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-13 13:30:13.132450
- Title: We went to look for meaning and all we got were these lousy
representations: aspects of meaning representation for computational
semantics
- Title(参考訳): 私たちは意味を探しに行き、これらのくだらない表現を手に入れた:計算意味論における意味表現の側面
- Authors: Simon Dobnik, Robin Cooper, Adam Ek, Bill Noble, Staffan Larsson,
Nikolai Ilinykh, Vladislav Maraev and Vidya Somashekarappa
- Abstract要約: 現在、さまざまな自然言語アプリケーションで一般的に使われている異なる意味表現について検討する。
それらの限界は、自然言語の側面、つまりモデリングされていること、そしてそれらが使われているアプリケーションの側面の両方の観点から議論する。
- 参考スコア(独自算出の注目度): 1.5655172237172874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we examine different meaning representations that are commonly
used in different natural language applications today and discuss their limits,
both in terms of the aspects of the natural language meaning they are modelling
and in terms of the aspects of the application for which they are used.
- Abstract(参考訳): 本稿では、現在、異なる自然言語アプリケーションで一般的に使われている異なる意味表現について検討し、それらがモデル化されている自然言語の側面と、それらが使用されているアプリケーションの側面の両方の観点から、それらの限界について論じる。
関連論文リスト
- Investigating Idiomaticity in Word Representations [9.208145117062339]
我々は2つの言語(英語とポルトガル語)における様々な水準の慣用性を持つ名詞に焦点をあてる。
そこで本研究では,各名詞の音韻性判定を含む最小対のデータセットについて,タイプレベルとトークンレベルの両方で示す。
AffinityとScaled similarityの詳細なメトリクスセットを定義し、モデルが慣用性の変化につながる可能性のある摂動に対してどれほど敏感であるかを判断する。
論文 参考訳(メタデータ) (2024-11-04T21:05:01Z) - Explaining Representation Learning with Perceptual Components [14.10876324116018]
自己教師付きモデルは明確な意味を持たない表現空間を作成する。
色,形状,テクスチャという3つの重要な知覚成分を用いて表現空間を解析する新しい手法を提案する。
我々のアプローチは表現空間の解釈可能性を高め、人間の視覚的知覚に共鳴する説明を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:08:37Z) - Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - Natural Language Decompositions of Implicit Content Enable Better Text
Representations [56.85319224208865]
本稿では,暗黙的に伝達されたコンテンツを明示的に考慮したテキスト分析手法を提案する。
我々は大きな言語モデルを用いて、観察されたテキストと推論的に関係する命題の集合を生成する。
本研究は,NLPにおいて,文字のみではなく,観察された言語の背景にある意味をモデル化することが重要であることを示唆する。
論文 参考訳(メタデータ) (2023-05-23T23:45:20Z) - What do Language Models know about word senses? Zero-Shot WSD with
Language Models and Domain Inventories [23.623074512572593]
我々は,言語モデルが推論時間における感覚間の識別能力の程度を調査することを目的としている。
我々は、単語感覚とドメインの関係を利用して、単語センスの曖昧さ(WSD)をテキスト・エンターテイメント問題として位置づける。
以上の結果から,本手法は実効性があり,教師付きシステムに近いことが示唆された。
論文 参考訳(メタデータ) (2023-02-07T09:55:07Z) - Transparency Helps Reveal When Language Models Learn Meaning [71.96920839263457]
合成データを用いた体系的な実験により,すべての表現が文脈に依存しない意味を持つ言語では,自己回帰型とマスキング型の両方の言語モデルが,表現間の意味的関係をエミュレートする。
自然言語に目を向けると、特定の現象(参照不透明さ)による実験は、現在の言語モデルが自然言語の意味論をうまく表現していないという証拠を増大させる。
論文 参考訳(メタデータ) (2022-10-14T02:35:19Z) - Testing the Ability of Language Models to Interpret Figurative Language [69.59943454934799]
比喩的・比喩的な言語は言論において一般的である。
現代の言語モデルが非リテラルなフレーズをどの程度解釈できるかについては、未解決の疑問が残る。
ウィノグラードスタイルの非文字言語理解タスクであるFig-QAを紹介する。
論文 参考訳(メタデータ) (2022-04-26T23:42:22Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - A Comprehensive Survey on Word Representation Models: From Classical to
State-Of-The-Art Word Representation Language Models [7.977161233209228]
調査では、異なる単語表現モデルとその表現力について調べる。
我々は様々なテキスト表現法を記述し、モデル設計はNLPの文脈で花を咲かせてきた。
ML および DL ベースの分類器,評価指標,およびこれらの単語を異なる NLP タスクに埋め込んだ場合の応用について概説する。
論文 参考訳(メタデータ) (2020-10-28T15:15:13Z) - Understanding Spatial Relations through Multiple Modalities [78.07328342973611]
オブジェクト間の空間的関係は、空間的前置詞として表されるか、移動、歩行、移動などの空間的動詞によって表される。
画像中の2つの実体間の暗黙的・明示的な空間的関係を推定するタスクを導入する。
本研究では、テキスト情報と視覚情報の両方を用いて空間関係を予測し、物体の位置情報と大きさ情報と画像埋め込みを利用するモデルを設計する。
論文 参考訳(メタデータ) (2020-07-19T01:35:08Z) - Sentiment Analysis with Contextual Embeddings and Self-Attention [3.0079490585515343]
自然言語では、単語や句の意図された意味はしばしば暗黙的であり、文脈に依存する。
本稿では,文脈埋め込みと自己認識機構を用いた感情分析の簡易かつ効果的な手法を提案する。
形態学的にリッチなポーランド語とドイツ語を含む3つの言語の実験結果から、我々のモデルは最先端のモデルに匹敵するか、さらに優れています。
論文 参考訳(メタデータ) (2020-03-12T02:19:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。