論文の概要: Zero Shot Crosslingual Eye-Tracking Data Prediction using Multilingual
Transformer Models
- arxiv url: http://arxiv.org/abs/2203.16474v1
- Date: Wed, 30 Mar 2022 17:11:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 17:16:32.899336
- Title: Zero Shot Crosslingual Eye-Tracking Data Prediction using Multilingual
Transformer Models
- Title(参考訳): 多言語変換器モデルを用いたゼロショット横断眼球追跡データ予測
- Authors: Harshvardhan Srivastava
- Abstract要約: 本稿では,多言語データセットの読解パターンを予測するCMCL 2022共有タスクについて述べる。
本モデルでは, 平均偏差と標準偏差の統計的測度を予測するために, 変圧器のテキスト表現と回帰層を用いた手作業による特徴量を用いる。
エンド・ツー・エンドのモデルをトレーニングし、異なる言語から意味のある情報を抽出し、2つの別々のデータセットでモデルをテストします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Eye tracking data during reading is a useful source of information to
understand the cognitive processes that take place during language
comprehension processes. Different languages account for different brain
triggers , however there seems to be some uniform indicators. In this paper, we
describe our submission to the CMCL 2022 shared task on predicting human
reading patterns for multi-lingual dataset. Our model uses text representations
from transformers and some hand engineered features with a regression layer on
top to predict statistical measures of mean and standard deviation for 2 main
eye-tracking features. We train an end to end model to extract meaningful
information from different languages and test our model on two seperate
datasets. We compare different transformer models and show ablation studies
affecting model performance. Our final submission ranked 4th place for
SubTask-1 and 1st place for SubTask-2 for the shared task.
- Abstract(参考訳): 読書中の視線追跡データは、言語理解過程中に起こる認知過程を理解するのに有用な情報源である。
異なる言語は異なる脳のトリガーを説明できるが、一様の指標があるようだ。
本稿では,多言語データセットにおける人間の読み出しパターンの予測に関するcmcl 2022共有タスクへの提案について述べる。
本モデルでは,2つの眼球追跡特徴に対する平均偏差と標準偏差の統計的測度を予測するために,変圧器のテキスト表現と回帰層を用いた手書き特徴を用いた。
エンド・ツー・エンドのモデルをトレーニングして、異なる言語から意味のある情報を抽出し、2つのデータセットでモデルをテストします。
異なる変圧器モデルを比較し、モデル性能に影響を与えるアブレーション研究を示す。
最後に、SubTask-1で4位、共有タスクでSubTask-2で1位にランク付けしました。
関連論文リスト
- P-MMEval: A Parallel Multilingual Multitask Benchmark for Consistent Evaluation of LLMs [84.24644520272835]
大きな言語モデル(LLM)は、翻訳、コード生成、推論といったタスクにまたがる様々な多言語機能を示す。
以前の評価では、その範囲を基本自然言語処理(NLP)や、独立した機能固有のタスクに制限することが多かった。
我々は、これらのベンチマークの有用性に関する以前の研究の監視に対処するため、大規模ベンチマークから利用可能な、合理的なベンチマークを選択するパイプラインを提案する。
本稿では,P-MMEvalを提案する。P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval,P-MMEval。
論文 参考訳(メタデータ) (2024-11-14T01:29:36Z) - Can Language Beat Numerical Regression? Language-Based Multimodal Trajectory Prediction [23.45902601618188]
言語モデルは、文脈理解と生成性能において印象的な能力を示してきた。
LMTraj (Language-based Multimodal Trajectory predictor) を提案する。
本稿では,言語に基づくモデルが,歩行者の軌道予測に有効なことを示し,既存の数値ベースの予測手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-27T11:06:44Z) - Unified Model Learning for Various Neural Machine Translation [63.320005222549646]
既存の機械翻訳(NMT)研究は主にデータセット固有のモデルの開発に焦点を当てている。
我々は,NMT(UMLNMT)のための統一モデル学習モデル(Unified Model Learning for NMT)を提案する。
OurNMTは、データセット固有のモデルよりも大幅に改善され、モデルデプロイメントコストが大幅に削減される。
論文 参考訳(メタデータ) (2023-05-04T12:21:52Z) - Multi Task Learning For Zero Shot Performance Prediction of Multilingual
Models [12.759281077118567]
多言語トランスフォーマーに基づく言語モデルは、言語間のゼロショット転送において驚くほど効果的であることが観察されている。
我々は,タスク上のゼロショット性能をマルチタスク学習問題としてモデル化することにより,タスク上のゼロショット性能を予測するための既存の手法を構築した。
論文 参考訳(メタデータ) (2022-05-12T14:47:03Z) - A Generative Language Model for Few-shot Aspect-Based Sentiment Analysis [90.24921443175514]
我々は、アスペクト項、カテゴリを抽出し、対応する極性を予測するアスペクトベースの感情分析に焦点を当てる。
本稿では,一方向の注意を伴う生成言語モデルを用いて,抽出タスクと予測タスクをシーケンス生成タスクに再構成することを提案する。
提案手法は,従来の最先端(BERTをベースとした)の性能を,数ショットとフルショットの設定において,大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-04-11T18:31:53Z) - Team \'UFAL at CMCL 2022 Shared Task: Figuring out the correct recipe
for predicting Eye-Tracking features using Pretrained Language Models [9.087729124428467]
本稿では,眼球追跡情報予測のためのCMCL 2022共有タスクについて述べる。
提案は平均5.72のMAEを達成し,共有タスクでは5位にランクインした。
論文 参考訳(メタデータ) (2022-04-11T10:43:34Z) - Bridging the Data Gap between Training and Inference for Unsupervised
Neural Machine Translation [49.916963624249355]
UNMTモデルは、翻訳されたソースと推論中の自然言語で擬似並列データに基づいて訓練される。
トレーニングと推論のソース差はUNMTモデルの翻訳性能を妨げている。
本稿では、擬似並列データ自然言語を同時に用いたオンライン自己学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-16T04:50:27Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - Leveraging recent advances in Pre-Trained Language Models
forEye-Tracking Prediction [0.0]
Natural Language Pro-cessingは、視線追跡データなどの人間由来の行動データを使用してニューラルネットを強化し、構文とセマンティクスにまたがるさまざまなタスクを解決する。
本稿では、ZuCo 1.0とZuCo 2.0データセットを用いて、異なる言語モデルを探り、各単語について、その意味について、これらの用語の特徴を直接予測する。
論文 参考訳(メタデータ) (2021-10-09T06:46:48Z) - TorontoCL at CMCL 2021 Shared Task: RoBERTa with Multi-Stage Fine-Tuning
for Eye-Tracking Prediction [25.99947358445936]
本稿では, CMCL 2021共有課題に対する人間読影パターンの予測について述べる。
我々のモデルは5つの視線追跡特徴を予測するために回帰層を持つRoBERTaを用いている。
私たちの最終提出は3.929のMAEスコアを達成し、このタスクに参加した13チームのうち3位を獲得しました。
論文 参考訳(メタデータ) (2021-04-15T05:29:13Z) - Comparison of Interactive Knowledge Base Spelling Correction Models for
Low-Resource Languages [81.90356787324481]
低リソース言語に対する正規化の推進は、パターンの予測が難しいため、難しい作業である。
この研究は、ターゲット言語データに様々な量を持つニューラルモデルとキャラクタ言語モデルの比較を示す。
我々の利用シナリオは、ほぼゼロのトレーニング例によるインタラクティブな修正であり、より多くのデータが収集されるにつれてモデルを改善する。
論文 参考訳(メタデータ) (2020-10-20T17:31:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。