論文の概要: Towards a Similarity-adjusted Surprisal Theory
- arxiv url: http://arxiv.org/abs/2410.17676v1
- Date: Wed, 23 Oct 2024 08:49:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-24 13:56:20.552668
- Title: Towards a Similarity-adjusted Surprisal Theory
- Title(参考訳): 類似性調整された素性理論に向けて
- Authors: Clara Meister, Mario Giulianelli, Tiago Pimentel,
- Abstract要約: リコッタとSzeidl(2006)の多様性指数を用いて、類似性調整された仮定(英語版)(英語版)と呼ばれる計量に仮定を拡張した。
類似性調整された推定は、ある種のデータセットの標準的な推定値を超える予測力を追加し、理解の努力を補完する尺度として機能することを示唆している。
- 参考スコア(独自算出の注目度): 43.796522229008374
- License:
- Abstract: Surprisal theory posits that the cognitive effort required to comprehend a word is determined by its contextual predictability, quantified as surprisal. Traditionally, surprisal theory treats words as distinct entities, overlooking any potential similarity between them. Giulianelli et al. (2023) address this limitation by introducing information value, a measure of predictability designed to account for similarities between communicative units. Our work leverages Ricotta and Szeidl's (2006) diversity index to extend surprisal into a metric that we term similarity-adjusted surprisal, exposing a mathematical relationship between surprisal and information value. Similarity-adjusted surprisal aligns with information value when considering graded similarities and reduces to standard surprisal when words are treated as distinct. Experimental results with reading time data indicate that similarity-adjusted surprisal adds predictive power beyond standard surprisal for certain datasets, suggesting it serves as a complementary measure of comprehension effort.
- Abstract(参考訳): 素因的理論は、単語を理解するために必要な認知的努力は、その文脈的予測可能性によって決定され、素因的として定量化されていることを示唆している。
伝統的に、仮定理論は単語を別個の実体として扱い、それらの間の潜在的な類似性を見渡す。
Giulianelli et al (2023)は、通信単位間の類似性を考慮するために設計された予測可能性の尺度である情報値を導入することで、この制限に対処する。
我々の研究は、Ricotta と Szeidl (2006) の多様性指数を利用して、類似性調整された仮定(英語版)と呼ばれる計量に、仮定値と情報値の間の数学的関係を明らかにする。
類似度調整された代名詞は、次級の類似性を考える際に情報値と整合し、単語を区別するときに標準代名詞に還元する。
読解時間データによる実験結果から、類似度調整された推定は、特定のデータセットの標準推定値を超える予測力を付加し、理解の努力を補完する指標となることが示唆された。
関連論文リスト
- On the Role of Context in Reading Time Prediction [50.87306355705826]
我々は,リアルタイム言語理解において,読者がコンテキストをどのように統合するかについて,新たな視点を提示する。
提案手法は,言語単位の処理作業が文脈内情報の内容のアフィン関数であることを示す素因的理論に基づいている。
論文 参考訳(メタデータ) (2024-09-12T15:52:22Z) - Testing the Predictions of Surprisal Theory in 11 Languages [77.45204595614]
本研究では,11言語における副次的時間と読解時間の関係について検討する。
より多様な言語に焦点をあてることで、これらの結果は、情報理論と言語間のインクリメンタル言語処理の最も堅牢なリンクを提供すると論じる。
論文 参考訳(メタデータ) (2023-07-07T15:37:50Z) - Semantic Specialization for Knowledge-based Word Sense Disambiguation [12.573927420408365]
知識に基づくWord Sense Disambiguation (WSD) のための有望なアプローチは、ある文中の対象語に対して計算された単語に最も近い文脈的埋め込みを持つ感覚を選択することである。
本稿では,文脈適応型埋め込みを語彙知識のみを用いてWSDタスクに適応させるWSDのセマンティック・スペシャライゼーションを提案する。
論文 参考訳(メタデータ) (2023-04-22T07:40:23Z) - Improving Sentence Similarity Estimation for Unsupervised Extractive
Summarization [21.602394765472386]
教師なし抽出要約における文類似度推定を改善するための2つの新しい手法を提案する。
我々は、比較学習を用いて、同じ文書の文が異なる文書の文とよりよく似ているという文書レベルの目的を最適化する。
また、相互学習を用いて文類似度推定と文サリエンスランキングの関係を高める。
論文 参考訳(メタデータ) (2023-02-24T07:10:33Z) - Relational Sentence Embedding for Flexible Semantic Matching [86.21393054423355]
文埋め込みの可能性を明らかにするための新しいパラダイムとして,文埋め込み(Sentence Embedding, RSE)を提案する。
RSEは文関係のモデル化に有効で柔軟性があり、一連の最先端の埋め込み手法より優れている。
論文 参考訳(メタデータ) (2022-12-17T05:25:17Z) - Evaluation of taxonomic and neural embedding methods for calculating
semantic similarity [0.0]
分類学的類似度尺度と分布的類似度尺度のメカニズムについて検討する。
分類学的類似度尺度は、意味的類似度を予測するための素因として、最短経路長に依存する可能性がある。
類似性予測における概念関係と神経埋め込みの相乗効果は、伝達学習における知識ベースを活用する新しい傾向を示す可能性がある。
論文 参考訳(メタデータ) (2022-09-30T02:54:21Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Patterns of Lexical Ambiguity in Contextualised Language Models [9.747449805791092]
本稿では,単語感覚の類似度と共述度を拡張した,人間による注釈付きデータセットを提案する。
どちらの人間の判断も、多文解釈の類似性は意味の同一性とホモニミーの連続性にあることを示している。
我々のデータセットは、語彙的曖昧性の複雑さの大部分を捉えており、文脈的埋め込みのための現実的なテストベッドを提供することができる。
論文 参考訳(メタデータ) (2021-09-27T13:11:44Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。