論文の概要: Attention-aware semantic relevance predicting Chinese sentence reading
- arxiv url: http://arxiv.org/abs/2403.18542v1
- Date: Wed, 27 Mar 2024 13:22:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 16:58:17.627310
- Title: Attention-aware semantic relevance predicting Chinese sentence reading
- Title(参考訳): 中国語文読解における注意認識の意味関係の予測
- Authors: Kun Sun,
- Abstract要約: 本研究では,文脈意味的関連性を計算するための注意意識的アプローチを提案する。
意味的関連性の注意を意識したメトリクスは、中国語読解タスクの固定期間をより正確に予測することができる。
私たちのアプローチは、人間の言語理解と処理方法の理解を深めるために、これらのメトリクスの可能性を強調します。
- 参考スコア(独自算出の注目度): 6.294658916880712
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, several influential computational models and metrics have been proposed to predict how humans comprehend and process sentence. One particularly promising approach is contextual semantic similarity. Inspired by the attention algorithm in Transformer and human memory mechanisms, this study proposes an ``attention-aware'' approach for computing contextual semantic relevance. This new approach takes into account the different contributions of contextual parts and the expectation effect, allowing it to incorporate contextual information fully. The attention-aware approach also facilitates the simulation of existing reading models and evaluate them. The resulting ``attention-aware'' metrics of semantic relevance can more accurately predict fixation durations in Chinese reading tasks recorded in an eye-tracking corpus than those calculated by existing approaches. The study's findings further provide strong support for the presence of semantic preview benefits in Chinese naturalistic reading. Furthermore, the attention-aware metrics of semantic relevance, being memory-based, possess high interpretability from both linguistic and cognitive standpoints, making them a valuable computational tool for modeling eye-movements in reading and further gaining insight into the process of language comprehension. Our approach underscores the potential of these metrics to advance our comprehension of how humans understand and process language, ultimately leading to a better understanding of language comprehension and processing.
- Abstract(参考訳): 近年,人間が文章を理解・処理する方法を予測するために,いくつかの有効な計算モデルやメトリクスが提案されている。
特に有望なアプローチは文脈意味的類似性である。
本研究は,トランスフォーマーの注意アルゴリズムと人間の記憶機構に着想を得て,文脈意味の関連性を計算するための「注意認識」アプローチを提案する。
この新しいアプローチは、コンテキスト部分の異なるコントリビューションと期待効果を考慮しており、コンテキスト情報を完全に組み込むことができる。
注意を意識したアプローチは、既存の読影モデルのシミュレーションを促進し、評価する。
その結果,目追跡コーパスに記録された中国語読解作業における意味的関連性に関する「注意-意識」の指標は,既存の手法よりも精度良く定着期間を予測できることがわかった。
この研究の結果は、中国自然主義の読解における意味的プレビューの利点の存在を強く支持している。
さらに、記憶に基づく意味的関連性の注意喚起指標は、言語的・認知的両面から高い解釈可能性を持ち、読み上げにおける目の動きをモデル化し、さらに言語理解の過程に関する洞察を得るための貴重な計算ツールとなる。
私たちのアプローチは、人間の言語理解と処理方法の理解を深め、言語理解と処理の理解を深める上で、これらのメトリクスの可能性を強調します。
関連論文リスト
- The Roles of Contextual Semantic Relevance Metrics in Human Visual Processing [27.152245569974678]
本研究では,文脈意味的関連性の指標を紹介する。
対象オブジェクトとその周辺環境間の意味的関係を視覚的・言語的両面から評価する。
我々は、最先端のディープラーニング技術を用いて、これらのメトリクスを計算し、人間の視覚処理に対する修正措置への影響を分析する。
論文 参考訳(メタデータ) (2024-10-13T17:05:47Z) - Computational Sentence-level Metrics Predicting Human Sentence Comprehension [27.152245569974678]
本研究では,多言語大言語モデルを用いた文レベルメトリクスの計算手法を提案する。
文素因性および文関連性を測定し,言語全体にわたって人間が文章をどう理解するかを予測できるかどうかを検証した。
論文 参考訳(メタデータ) (2024-03-23T12:19:49Z) - Pixel Sentence Representation Learning [67.4775296225521]
本研究では,視覚表現学習プロセスとして,文レベルのテキスト意味論の学習を概念化する。
タイポスや単語順シャッフルのような視覚的に接地されたテキスト摂動法を採用し、人間の認知パターンに共鳴し、摂動を連続的に認識できるようにする。
我々のアプローチは、大規模に教師なしのトピックアライメントトレーニングと自然言語推論監督によってさらに強化されている。
論文 参考訳(メタデータ) (2024-02-13T02:46:45Z) - Analysis of the Evolution of Advanced Transformer-Based Language Models:
Experiments on Opinion Mining [0.5735035463793008]
本稿では,最先端のトランスフォーマーに基づく言語モデルの意見マイニングにおける挙動について検討する。
私たちの比較研究は、フォーカスするアプローチに関して、プロダクションエンジニアがリードし、道を開く方法を示しています。
論文 参考訳(メタデータ) (2023-08-07T01:10:50Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - SenteCon: Leveraging Lexicons to Learn Human-Interpretable Language
Representations [51.08119762844217]
SenteConは、深層言語表現に人間の解釈可能性を導入する方法である。
SenteConは、下流タスクにおける予測性能にほとんど、あるいは全くコストをかからない高レベルな解釈性を提供する。
論文 参考訳(メタデータ) (2023-05-24T05:06:28Z) - Lexical Complexity Prediction: An Overview [13.224233182417636]
テキスト中の未知の単語の発生は、読書の理解を著しく妨げている。
計算モデリングは、テキスト中の複雑な単語を識別し、より単純な代替語に置き換えるために応用されている。
本稿では,英文データに基づく語彙複雑性予測に対する計算手法の概要について述べる。
論文 参考訳(メタデータ) (2023-03-08T19:35:08Z) - Improving Cross-Lingual Reading Comprehension with Self-Training [62.73937175625953]
現在の最新モデルは、いくつかのベンチマークで人間のパフォーマンスを上回っています。
前作では、ゼロショットのクロスリンガル読解のための事前訓練された多言語モデルの能力を明らかにしている。
本稿では,ラベルのないデータを利用して性能を向上する。
論文 参考訳(メタデータ) (2021-05-08T08:04:30Z) - Semantics-Aware Inferential Network for Natural Language Understanding [79.70497178043368]
このようなモチベーションを満たすために,セマンティックス対応推論ネットワーク(SAIN)を提案する。
SAINの推論モジュールは、明示的な文脈的セマンティクスを補完的な入力として、セマンティクス上の一連の推論ステップを可能にする。
本モデルでは,機械読解や自然言語推論など11タスクの大幅な改善を実現している。
論文 参考訳(メタデータ) (2020-04-28T07:24:43Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。