論文の概要: Dual input stream transformer for vertical drift correction in
eye-tracking reading data
- arxiv url: http://arxiv.org/abs/2311.06095v2
- Date: Thu, 15 Feb 2024 17:05:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-16 21:02:30.802333
- Title: Dual input stream transformer for vertical drift correction in
eye-tracking reading data
- Title(参考訳): 眼球追跡データにおける垂直ドリフト補正のためのデュアル入力ストリームトランス
- Authors: Thomas M. Mercier, Marcin Budka, Martin R. Vasilev, Julie A. Kirkby,
Bernhard Angele, Timothy J. Slattery
- Abstract要約: 本稿では,読解中に収集した視線追跡データから実際に注目されていたテキスト行に固定点を割り当てる新しいDual Input Stream Transformer(DIST)を提案する。
我々は、9つの多様なデータセットからなる包括的スイートにおいて、11の古典的アプローチに対してDISTを評価した。
- 参考スコア(独自算出の注目度): 0.23301643766310368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel Dual Input Stream Transformer (DIST) for the challenging
problem of assigning fixation points from eye-tracking data collected during
passage reading to the line of text that the reader was actually focused on.
This post-processing step is crucial for analysis of the reading data due to
the presence of noise in the form of vertical drift. We evaluate DIST against
eleven classical approaches on a comprehensive suite of nine diverse datasets.
We demonstrate that combining multiple instances of the DIST model in an
ensemble achieves high accuracy across all datasets. Further combining the DIST
ensemble with the best classical approach yields an average accuracy of 98.17
%. Our approach presents a significant step towards addressing the bottleneck
of manual line assignment in reading research. Through extensive analysis and
ablation studies, we identify key factors that contribute to DIST's success,
including the incorporation of line overlap features and the use of a second
input stream. Via rigorous evaluation, we demonstrate that DIST is robust to
various experimental setups, making it a safe first choice for practitioners in
the field.
- Abstract(参考訳): 本稿では,読解中に収集した視線追跡データから,実際に注目されていたテキスト行に固定点を割り当てるという問題に対して,新しいDist(Dual Input Stream Transformer)を導入する。
この後処理ステップは, 垂直ドリフト形態における雑音の存在から, 読み出しデータの解析に不可欠である。
我々は、9つの多様なデータセットからなる包括的スイートにおいて、11の古典的アプローチに対してDISTを評価する。
我々は,DISTモデルの複数のインスタンスをアンサンブルに組み合わせることで,すべてのデータセットに対して高い精度が得られることを示した。
さらにDISTアンサンブルと最高の古典的アプローチを組み合わせると、平均精度は98.17 %となる。
本手法は,読解研究における手作業ライン割り当てのボトルネックに対処するための重要なステップを示す。
DIST の成功に寄与する重要な要因は, ラインオーバーラップ機能の導入や第2入力ストリームの使用などである。
厳密な評価により、DISTは様々な実験装置に対して堅牢であることを示し、この分野の実践者にとって安全な第1選択となる。
関連論文リスト
- Dataset Distillation by Automatic Training Trajectories [13.502303920701163]
本稿では, 軌道長NSを動的かつ適応的に調整し, 累積ミスマッチ問題(AMP)に対処する新しいアプローチであるATT(Automatic Training Trajectories)を提案する。
本手法は, クロスアーキテクチャを含むテストにおいて, 既存の手法よりも優れている。
論文 参考訳(メタデータ) (2024-07-19T12:27:11Z) - RECOST: External Knowledge Guided Data-efficient Instruction Tuning [25.985023475991625]
我々は、現在のデータ効率のよい命令チューニング手法は、元の命令チューニングデータセットの品質に大きく依存していると論じる。
我々は、外部知識ベースの再評価と多様性に一貫性のあるサンプリングを単一のパイプラインに統合する、textbfRECOSTと呼ばれるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-27T09:47:36Z) - One-Shot Learning as Instruction Data Prospector for Large Language Models [108.81681547472138]
textscNuggetsはワンショット学習を使用して、広範なデータセットから高品質な命令データを選択する。
我々は,textscNuggets がキュレートした例の上位1%による命令チューニングが,データセット全体を用いた従来の手法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2023-12-16T03:33:12Z) - Spanning Training Progress: Temporal Dual-Depth Scoring (TDDS) for Enhanced Dataset Pruning [50.809769498312434]
我々は、時間的デュアルディープス・スコーリング(TDDS)と呼ばれる新しいデータセット・プルーニング手法を提案する。
本手法は,10%のトレーニングデータで54.51%の精度を達成し,ランダム選択を7.83%以上,他の比較手法を12.69%以上上回る結果を得た。
論文 参考訳(メタデータ) (2023-11-22T03:45:30Z) - A Supervised Contrastive Learning Pretrain-Finetune Approach for Time
Series [15.218841180577135]
本稿では,教師付きコントラスト学習を利用して,事前学習データセット内の特徴を識別する新しい事前学習手法を提案する。
次に、事前学習データセットの学習力学とより密に連携することで、目標データの正確な予測を強化するための微調整手順を提案する。
論文 参考訳(メタデータ) (2023-11-21T02:06:52Z) - AST: Effective Dataset Distillation through Alignment with Smooth and
High-Quality Expert Trajectories [18.266786462036553]
我々は,Smoothと高品質なエキスパートトラジェクトリによるアライメントのための効果的なDDフレームワークASTを提案する。
さまざまなスケール、サイズ、解像度のデータセットに対して、広範な実験を行います。
論文 参考訳(メタデータ) (2023-10-16T16:13:53Z) - D2 Pruning: Message Passing for Balancing Diversity and Difficulty in
Data Pruning [70.98091101459421]
コアセット選択は、トレーニングデータのサブセットを選択して、このサブセット(コアセットとも呼ばれる)でトレーニングされたモデルのパフォーマンスを最大化する。
コアセット選択のために,このデータセットグラフ上で前後のメッセージパッシングを利用する新しいプルーニングアルゴリズムD2プルーニングを提案する。
その結果、D2プルーニングは従来の最先端手法よりもコアセット選択を向上し、最大70%のプルーニングレートが得られた。
論文 参考訳(メタデータ) (2023-10-11T23:01:29Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Cross-Modal Fine-Tuning: Align then Refine [83.37294254884446]
ORCAはクロスモーダルな微調整フレームワークであり、単一の大規模事前訓練モデルの適用範囲を様々に拡張する。
ORCAは12のモダリティから60以上のデータセットを含む3つのベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2023-02-11T16:32:28Z) - Transferring BERT-like Transformers' Knowledge for Authorship
Verification [8.443350618722562]
著者確認作業におけるBERT様変圧器の有効性について検討した。
我々はPAN-2020の新しいスプリットを提供し、不連続なトピックや著者からトレーニングデータとテストデータをサンプリングする。
これらの分割は、新しい、かなり異なるデータセット上で知識を伝達するモデルの能力を高めることができることを示す。
論文 参考訳(メタデータ) (2021-12-09T18:57:29Z) - Improving Multi-Turn Response Selection Models with Complementary
Last-Utterance Selection by Instance Weighting [84.9716460244444]
我々は、データリソース自体の根底にある相関を利用して、異なる種類の監視信号を導出することを検討する。
2つの公開データセットで広範な実験を行い、両方のデータセットで大幅に改善した。
論文 参考訳(メタデータ) (2020-02-18T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。