論文の概要: Word-Embeddings Distinguish Denominal and Root-Derived Verbs in Semitic
- arxiv url: http://arxiv.org/abs/2208.05721v1
- Date: Thu, 11 Aug 2022 09:31:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-12 12:50:09.927490
- Title: Word-Embeddings Distinguish Denominal and Root-Derived Verbs in Semitic
- Title(参考訳): 単語埋め込みによる半音節の単音節と根話動詞の区別
- Authors: Ido Benbaji (MIT), Omri Doron (MIT), Ad\`ele H\'enot-Mortier (MIT)
- Abstract要約: ヘブライ語埋め込みの文脈における2段階仮説の有効性を検証することを提案する。
2段階の仮説が導出されている場合,(1)は名詞,(2)はそれに由来する名詞,(3)は名詞に関連する動詞がエンコードされることを期待する。
我々は,この仮説を,fastText,GloVe,Word2Vec,AlephBERTの4つの埋め込みモデルを用いて検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Proponents of the Distributed Morphology framework have posited the existence
of two levels of morphological word formation: a lower one, leading to loose
input-output semantic relationships; and an upper one, leading to tight
input-output semantic relationships. In this work, we propose to test the
validity of this assumption in the context of Hebrew word embeddings. If the
two-level hypothesis is borne out, we expect state-of-the-art Hebrew word
embeddings to encode (1) a noun, (2) a denominal derived from it (via an
upper-level operation), and (3) a verb related to the noun (via a lower-level
operation on the noun's root), in such a way that the denominal (2) should be
closer in the embedding space to the noun (1) than the related verb (3) is to
the same noun (1). We report that this hypothesis is verified by four embedding
models of Hebrew: fastText, GloVe, Word2Vec and AlephBERT. This suggests that
word embedding models are able to capture complex and fine-grained semantic
properties that are morphologically motivated.
- Abstract(参考訳): 分散形態学フレームワークの支持者は、2つのレベルの形態的単語形成の存在を示唆している: 下位の単語は、緩やかな入力-出力セマンティックな関係につながり、上位の単語は、入力-出力セマンティックな関係に結びつく。
本研究では,ヘブライ語埋め込みの文脈において,この仮定の有効性を検証することを提案する。
2段階の仮説が出された場合、(1) のヘブライ語の埋め込みは、(1) の名詞、(2) から派生した名詞(上位の操作)、(3) の名詞に関連する動詞(名詞の根の下位の操作)をエンコードし、(2) の項が関連する動詞(3) よりも名詞(1) の埋め込み空間に近付くようにして、同一の名詞(1) を符号化することを期待する。
我々は,この仮説を,fastText,GloVe,Word2Vec,AlephBERTの4つの埋め込みモデルを用いて検証した。
これは、単語埋め込みモデルが形態学的に動機づけられた複雑なきめ細かな意味特性を捉えることができることを示唆している。
関連論文リスト
- Agentivit\`a e telicit\`a in GilBERTo: implicazioni cognitive [77.71680953280436]
本研究の目的は,トランスフォーマーに基づくニューラルネットワークモデルが語彙意味論を推論するかどうかを検討することである。
考慮される意味的性質は、テリシティ(定性とも組み合わされる)と作用性である。
論文 参考訳(メタデータ) (2023-07-06T10:52:22Z) - Unsupervised Mapping of Arguments of Deverbal Nouns to Their
Corresponding Verbal Labels [52.940886615390106]
デバーバル名詞は英語の文章でよく使われる動詞で、出来事や行動やその議論を記述している。
名前付けされた構成の引数を扱うために存在する解決策は意味論的アノテーションに基づいている。
本稿では,より統語的アプローチを導入し,デバーバル名詞の議論を対応する動詞構成にマッピングする。
論文 参考訳(メタデータ) (2023-06-24T10:07:01Z) - A Method for Studying Semantic Construal in Grammatical Constructions
with Interpretable Contextual Embedding Spaces [11.564029462243631]
本研究では,大言語モデルを用いた文法構成における意味論的コンストラクトについて検討する。
対象位置にある単語は、対象位置にある単語と全く同じ単語よりも、より有効なものとして解釈されることを示す。
本手法は, 特定のレキセムから抽象化された, テンポラティクスレベルでの構文構成の分布的意味を探索することができる。
論文 参考訳(メタデータ) (2023-05-29T20:30:38Z) - Not wacky vs. definitely wacky: A study of scalar adverbs in pretrained
language models [0.0]
BERT、RoBERTa、GPT-3といった現代の事前訓練された言語モデルは、古典的な静的単語の埋め込みよりも論理的なタスクでより良いパフォーマンスを期待している。
本稿では,BERT,RoBERTa,GPT-2,GPT-3が,これらの共通語に対する一般人的な知識を示す範囲について検討する。
論理的な意味のいくつかの側面を捉えているにもかかわらず、モデルは人間のパフォーマンスにかなり劣っていることが分かりました。
論文 参考訳(メタデータ) (2023-05-25T18:56:26Z) - The Causal Structure of Semantic Ambiguities [0.0]
本研究は,(1)異なる解釈の連立可否度,(2)プロセスにおいて特定の単語がより重要な役割を果たす因果構造,の2つの特徴を同定する。
我々はこの理論を、心理学文献から抽出された曖昧なフレーズのデータセットと、私たちによって収集された人間の妥当性に応用した。
論文 参考訳(メタデータ) (2022-06-14T12:56:34Z) - Latent Topology Induction for Understanding Contextualized
Representations [84.7918739062235]
本研究では,文脈的埋め込みの表現空間について検討し,大規模言語モデルの隠れトポロジについて考察する。
文脈化表現の言語特性を要約した潜在状態のネットワークが存在することを示す。
論文 参考訳(メタデータ) (2022-06-03T11:22:48Z) - Decomposing lexical and compositional syntax and semantics with deep
language models [82.81964713263483]
GPT2のような言語変換器の活性化は、音声理解中の脳活動に線形にマップすることが示されている。
本稿では,言語モデルの高次元アクティベーションを,語彙,構成,構文,意味表現の4つのクラスに分類する分類法を提案する。
その結果は2つの結果が浮かび上がった。
まず、構成表現は、語彙よりも広範な皮質ネットワークを募集し、両側の側頭、頭頂、前頭前皮質を包含する。
論文 参考訳(メタデータ) (2021-03-02T10:24:05Z) - Topology of Word Embeddings: Singularities Reflect Polysemy [68.8204255655161]
本稿では,単語の意味の実際の数とよく相関する,永続的ホモロジーに基づく多意味性のトポロジカル尺度を提案する。
本稿では,SemEval-2010における単語センスの誘導と曖昧さに対する単純なトポロジ的な解決法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:21:51Z) - Investigating Cross-Linguistic Adjective Ordering Tendencies with a
Latent-Variable Model [66.84264870118723]
本稿では,多言語形容詞順序付けを潜在変数モデルとして,初めて純粋コーパス駆動モデルを提案する。
我々は普遍的、言語横断的、階層的形容詞順序付け傾向の存在の強い確固たる証拠を提供する。
論文 参考訳(メタデータ) (2020-10-09T18:27:55Z) - Using Holographically Compressed Embeddings in Question Answering [0.0]
本研究では,事前学習した埋め込みのホログラフィック圧縮を用いてトークン,そのパート・オブ・音声,名前付きエンティティタイプを表現する。
この実装は、修正された質問応答の繰り返しディープラーニングネットワークにおいて、意味的関係が保存され、高い性能が得られることを示す。
論文 参考訳(メタデータ) (2020-07-14T18:29:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。