論文の概要: Analyzing Wrap-Up Effects through an Information-Theoretic Lens
- arxiv url: http://arxiv.org/abs/2203.17213v1
- Date: Thu, 31 Mar 2022 17:41:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-01 15:10:36.610113
- Title: Analyzing Wrap-Up Effects through an Information-Theoretic Lens
- Title(参考訳): 情報理論レンズによるラップアップ効果の解析
- Authors: Clara Meister and Tiago Pimentel and Thomas Hikaru Clark and Ryan
Cotterell and Roger Levy
- Abstract要約: 本研究は,ラップアップ効果と情報理論量との関係について検討する。
先行文脈における情報の分布は文末RTや節末RTで予測されることが多い。
- 参考スコア(独自算出の注目度): 84.37602924855673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous analyses of reading time (RT) data have been implemented -- all in
an effort to better understand the cognitive processes driving reading
comprehension. However, data measured on words at the end of a sentence -- or
even at the end of a clause -- is often omitted due to the confounding factors
introduced by so-called "wrap-up effects," which manifests as a skewed
distribution of RTs for these words. Consequently, the understanding of the
cognitive processes that might be involved in these wrap-up effects is limited.
In this work, we attempt to learn more about these processes by examining the
relationship between wrap-up effects and information-theoretic quantities, such
as word and context surprisals. We find that the distribution of information in
prior contexts is often predictive of sentence- and clause-final RTs (while not
of sentence-medial RTs). This lends support to several prior hypotheses about
the processes involved in wrap-up effects.
- Abstract(参考訳): 読解時間(RT)データの多種多様な分析が実施されており、読解理解を促進する認知過程の理解を深めている。しかし、文の末尾で測定されたデータは、いわゆる「ラップアップ・エフェクト(wrap-up effect)」によって引き起こされる要因のため、しばしば省略される。これはこれらの単語に対するRTのスキュード分布として表される。
したがって、これらの包み込み効果にかかわる認知過程の理解は限られている。
本研究では,これらのプロセスについて,単語や文脈の前提など,ラップアップ効果と情報理論量との関係について検討する。
先行する文脈における情報の分布は、多くの場合、文末rtsと節末rts(文中rtsではない)の予測である。
これにより、ラップアップ効果に関わるプロセスに関するいくつかの先行仮説が支持される。
関連論文リスト
- Causal Message Passing: A Method for Experiments with Unknown and
General Network Interference [6.2548734896918505]
本研究では,複雑で未知のネットワーク干渉に対応する新しい枠組みを提案する。
本稿では,全処理効果を推定し,その効果を4つの数値シナリオで示すための実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-14T17:31:50Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - A Mechanistic Interpretation of Arithmetic Reasoning in Language Models
using Causal Mediation Analysis [128.0532113800092]
算数問題に対するトランスフォーマーに基づくLMの機械的解釈を提案する。
これにより、算術に関連する情報がLMによってどのように処理されるかについての洞察が得られる。
論文 参考訳(メタデータ) (2023-05-24T11:43:47Z) - Improving Faithfulness of Abstractive Summarization by Controlling
Confounding Effect of Irrelevant Sentences [38.919090721583075]
事実整合性は、共同創設者として機能する入力テキストの無関係な部分によって引き起こされる可能性があることを示す。
そこで我々は,人間が記述した関連文を利用できる場合に利用することにより,そのような欠点を抑えるためのシンプルなマルチタスクモデルを設計する。
提案手法は,AnswerSumm citepfabbri 2021answersummデータセットの強いベースラインに対して,忠実度スコアを20%向上させる。
論文 参考訳(メタデータ) (2022-12-19T18:51:06Z) - Estimating the Adversarial Robustness of Attributions in Text with
Transformers [44.745873282080346]
リプシッツ連続性に基づくテキスト分類における帰属ロバスト性(AR)の新たな定義を確立する。
そこで我々は,テキスト分類における属性の厳密な推定を行う強力な敵であるTransformerExplanationAttack (TEA)を提案する。
論文 参考訳(メタデータ) (2022-12-18T20:18:59Z) - On the Effect of Anticipation on Reading Times [84.27103313675342]
我々は単語の文脈エントロピーとして予測を運用する。
単語の読解時間に対する文脈的エントロピーの影響を示す重要な証拠が得られた。
論文 参考訳(メタデータ) (2022-11-25T18:58:23Z) - Human Interpretation of Saliency-based Explanation Over Text [65.29015910991261]
テキストデータ上でのサリエンシに基づく説明について検討する。
人はしばしば説明を誤って解釈する。
本稿では,過度知覚と過小認識のモデル推定に基づいて,サリエンシを調整する手法を提案する。
論文 参考訳(メタデータ) (2022-01-27T15:20:32Z) - Did the Cat Drink the Coffee? Challenging Transformers with Generalized
Event Knowledge [59.22170796793179]
Transformers Language Models (TLMs) を数学的適合のテクトダイナミックな評価のためのベンチマークで検証した。
以上の結果から, TLM は SDM に匹敵する性能が得られることが示された。
しかし、さらなる分析は、TLMがイベント知識の重要な側面を捉えていないことを一貫して示唆している。
論文 参考訳(メタデータ) (2021-07-22T20:52:26Z) - ReSCo-CC: Unsupervised Identification of Key Disinformation Sentences [3.7405995078130148]
本稿では,信頼できない文書に含まれる重要な偽情報を含む文を識別する新規な教師なしタスクを提案する。
そこで我々は,まず,タスク用に設計された特徴空間内に文を埋め込むことから始まる,3段階の統計的NLPソリューションを設計する。
本手法は, コア情報の同定を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-21T08:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。