論文の概要: Participle-Prepended Nominals Have Lower Entropy Than Nominals Appended After the Participle
- arxiv url: http://arxiv.org/abs/2405.10457v1
- Date: Thu, 16 May 2024 22:05:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 17:21:37.704504
- Title: Participle-Prepended Nominals Have Lower Entropy Than Nominals Appended After the Participle
- Title(参考訳): 分節前名詞は分節後名詞よりもエントロピーが低い
- Authors: Kristie Denlinger, Stephen Wechsler, Kyle Mahowald,
- Abstract要約: 英語は、化合物(例えば、ロンドン製)とフレーズの両方を許容する。
プレパーティシプルスロットは, フレーズ構成における等価位置よりも制約が強いことを予測した。
- 参考スコア(独自算出の注目度): 11.182929015929442
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: English allows for both compounds (e.g., London-made) and phrasal paraphrases (e.g., made in London). While these constructions have roughly the same truth-conditional meaning, we hypothesize that the compound allows less freedom to express the nature of the semantic relationship between the participle and the pre-participle nominal. We thus predict that the pre-participle slot is more constrained than the equivalent position in the phrasal construction. We test this prediction in a large corpus by measuring the entropy of corresponding nominal slots, conditional on the participle used. That is, we compare the entropy of $\alpha$ in compound construction slots like $\alpha$-[V]ed to the entropy of $\alpha$ in phrasal constructions like [V]ed by $\alpha$ for a given verb V. As predicted, there is significantly lower entropy in the compound construction than in the phrasal construction. We consider how these predictions follow from more general grammatical properties and processing factors.
- Abstract(参考訳): 英語では、複合語(eg, London-made)と phrasal paraphrases(eg, made in London)の両方が認められている。
これらの構造は、ほぼ同じ真理条件の意味を持つが、この化合物は、分詞と分詞前名義間の意味的関係の性質を表現できる自由度が低いことを仮定する。
したがって, プレパーティシプルスロットは, フレーズ構成における等価位置よりも制約が強いことを予測した。
我々は,この予測を大規模コーパスで検証し,対応する名目スロットのエントロピーを測定した。
すなわち、複合構成スロットにおいて$\alpha$-[V] のような$\alpha$のエントロピーと、[V] が与えられた動詞 V に対して$\alpha$ で表されるようなフレーズ構成における$\alpha$のエントロピーを比較する。
これらの予測は、より一般的な文法的性質や処理要因からどのように従うかを考える。
関連論文リスト
- Surprise! Uniform Information Density Isn't the Whole Story: Predicting Surprisal Contours in Long-form Discourse [54.08750245737734]
話者は、階層的に構造化された談話モデル内の位置に基づいて、情報率を変調する。
階層的予測器は談話の情報輪郭の重要な予測器であり,深い階層的予測器は浅い予測器よりも予測力が高いことがわかった。
論文 参考訳(メタデータ) (2024-10-21T14:42:37Z) - The optimal placement of the head in the noun phrase. The case of demonstrative, numeral, adjective and noun [0.16317061277456998]
言語において好まれる順序によって、名詞は終わりの1つに置かれる傾向があることを示す。
我々はまた、アンチローカリティ効果の証拠も示している: 望ましい順序における構文依存は、偶然に予想されるよりも長い。
論文 参考訳(メタデータ) (2024-02-15T20:24:39Z) - Coherent states for generalized uncertainty relations as Tsallis
probability amplitudes: new route to non-extensive thermostatistics [0.0]
一般化不確実性原理(GUP)に関連するコヒーレントな状態について検討する。
我々は、このコヒーレント状態とツァリスエントロピーの組み合わせは、非膨張熱力学の観点から GUP を研究することができる自然な概念的枠組みを提供すると論じる。
論文 参考訳(メタデータ) (2023-08-23T18:16:15Z) - Representation biases in sentence transformers [1.2129015549576372]
我々は,SOTA文変換器が強い名目参加型バイアスを有することを示す。
文のペア間のCのコサイン類似性は、名詞の参加者の集合の重なりによってより強く決定される。
論文 参考訳(メタデータ) (2023-01-30T16:35:23Z) - Are Representations Built from the Ground Up? An Empirical Examination
of Local Composition in Language Models [91.3755431537592]
構成的・非構成的句を表現することは言語理解にとって重要である。
まず,より長いフレーズのLM-内部表現を,その構成成分から予測する問題を定式化する。
意味的構成性の人間の判断と相関する予測精度を期待するが、大部分はそうではない。
論文 参考訳(メタデータ) (2022-10-07T14:21:30Z) - On the Intersection of Context-Free and Regular Languages [71.61206349427509]
我々はBar-Hillel構造を一般化し、$varepsilon$-arcsで有限状態オートマトンを扱う。
我々の構成が入力オートマトンと文法の両方の構造を符号化し、元の構成のサイズを維持した文法につながることを証明している。
論文 参考訳(メタデータ) (2022-09-14T17:49:06Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - Annihilating Entanglement Between Cones [77.34726150561087]
ローレンツ錐体は、ある種の強いレジリエンス特性を満たす対称基底を持つ唯一の円錐体であることを示す。
我々の証明はローレンツ・コーンの対称性を利用しており、エンタングルメント蒸留のプロトコルに類似した2つの構造を適用している。
論文 参考訳(メタデータ) (2021-10-22T15:02:39Z) - On the Sentence Embeddings from Pre-trained Language Models [78.45172445684126]
本稿では,BERT埋め込みにおける意味情報が完全に活用されていないことを論じる。
BERTは常に文の非滑らかな異方性意味空間を誘導し,その意味的類似性を損なう。
本稿では,非教師対象で学習した正規化フローにより,異方性文の埋め込み分布を滑らかで等方性ガウス分布に変換することを提案する。
論文 参考訳(メタデータ) (2020-11-02T13:14:57Z) - Is Supervised Syntactic Parsing Beneficial for Language Understanding?
An Empirical Investigation [71.70562795158625]
従来のNLPは、高レベルセマンティック言語理解(LU)の成功に必要な構文解析を長い間保持(教師付き)してきた。
近年のエンドツーエンドニューラルネットワークの出現、言語モデリング(LM)による自己監視、および幅広いLUタスクにおける成功は、この信念に疑問を投げかけている。
本研究では,LM-Pretrained Transformer Network の文脈における意味的LUに対する教師あり構文解析の有用性を実証的に検討する。
論文 参考訳(メタデータ) (2020-08-15T21:03:36Z) - Extracting and Validating Explanatory Word Archipelagoes using Dual Entropy [0.0]
テキストの論理接続は、アーカイブを形成する単語の接続によって表現されます。
エントロピーAの共変分を用いて、対象テキストに匹敵する長さの列島を抽出する。
その結果, エントロピーAで抽出した単語を対象とするテキストの一部が, 学習や準備の必要なく, 文章の解説部分を形成していることがわかった。
論文 参考訳(メタデータ) (2020-02-22T00:35:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。