論文の概要: Learning Oculomotor Behaviors from Scanpath
- arxiv url: http://arxiv.org/abs/2108.05025v1
- Date: Wed, 11 Aug 2021 04:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:36:16.938227
- Title: Learning Oculomotor Behaviors from Scanpath
- Title(参考訳): 走査路からの眼球運動の学習
- Authors: Beibin Li, Nicholas Nuechterlein, Erin Barney, Claire Foster, Minah
Kim, Monique Mahony, Adham Atyabi, Li Feng, Quan Wang, Pamela Ventola, Linda
Shapiro, Frederick Shic
- Abstract要約: そこで我々は,下流タスクの学習を容易にするために,オキュロモータ・スキャンパスの豊かな表現を生成する新しい手法を開発した。
提案した刺激非依存のOculomotor Behavior Framework (OBF) モデルは、教師なしおよび半教師なしタスクから人間のOculomotor Behaviorsを学習する。
- 参考スコア(独自算出の注目度): 4.611116211281628
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying oculomotor behaviors relevant for eye-tracking applications is a
critical but often challenging task. Aiming to automatically learn and extract
knowledge from existing eye-tracking data, we develop a novel method that
creates rich representations of oculomotor scanpaths to facilitate the learning
of downstream tasks. The proposed stimulus-agnostic Oculomotor Behavior
Framework (OBF) model learns human oculomotor behaviors from unsupervised and
semi-supervised tasks, including reconstruction, predictive coding, fixation
identification, and contrastive learning tasks. The resultant pre-trained OBF
model can be used in a variety of applications. Our pre-trained model
outperforms baseline approaches and traditional scanpath methods in autism
spectrum disorder and viewed-stimulus classification tasks. Ablation
experiments further show our proposed method could achieve even better results
with larger model sizes and more diverse eye-tracking training datasets,
supporting the model's potential for future eye-tracking applications. Open
source code: http://github.com/BeibinLi/OBF.
- Abstract(参考訳): 視線追跡アプリケーションに関連する眼球運動行動の同定は重要な課題であるが、しばしば難しい課題である。
既存の視線追跡データから知識を自動学習し抽出することを目的として,oculomotor scanpathsの豊富な表現を作成し,下流タスクの学習を容易にする新しい手法を開発した。
提案する刺激非依存型oculomotor behavior framework(obf)モデルは、再構成、予測符号化、固定同定、コントラスト学習タスクを含む教師なしおよび半教師なしタスクから人間のoculomotor挙動を学習する。
トレーニング済みのOBFモデルは、様々なアプリケーションで使用することができる。
自閉症スペクトラム障害と視聴覚刺激分類課題では,前訓練モデルがベースラインアプローチや従来のスキャンパス法を上回っている。
アブレーション実験により,提案手法は,より大きなモデルサイズとより多様なアイトラッキングトレーニングデータセットを用いて,さらに優れた結果が得られることが示された。
オープンソースコード: http://github.com/beibinli/obf。
関連論文リスト
- Deep Learning Through A Telescoping Lens: A Simple Model Provides Empirical Insights On Grokking, Gradient Boosting & Beyond [61.18736646013446]
その驚くべき振る舞いをより深く理解するために、トレーニングされたニューラルネットワークの単純かつ正確なモデルの有用性について検討する。
3つのケーススタディで、様々な顕著な現象に関する新しい経験的洞察を導き出すためにどのように適用できるかを説明します。
論文 参考訳(メタデータ) (2024-10-31T22:54:34Z) - Automatic Discovery of Visual Circuits [66.99553804855931]
本稿では,視覚モデルにおける視覚的概念の認識の基盤となる計算グラフのサブグラフを抽出するスケーラブルな手法について検討する。
提案手法は, モデル出力に因果的に影響を及ぼす回路を抽出し, これらの回路を編集することで, 敵攻撃から大きな事前学習モデルを守ることができることがわかった。
論文 参考訳(メタデータ) (2024-04-22T17:00:57Z) - Behind the Machine's Gaze: Biologically Constrained Neural Networks
Exhibit Human-like Visual Attention [40.878963450471026]
トップダウン方式でビジュアル・スキャンパスを生成するニューラル・ビジュアル・アテンション(NeVA)アルゴリズムを提案する。
提案手法は,人間の走査パスと類似性の観点から,最先端の非監視的注意モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-04-19T18:57:47Z) - Multi-task UNet: Jointly Boosting Saliency Prediction and Disease
Classification on Chest X-ray Images [3.8637285238278434]
本稿では,胸部X線(CXR)画像のビジュアル・サリエンシ予測のための新しい深層学習モデルについて述べる。
データ不足に対処するため,マルチタスク学習手法を応用し,同時にCXRの疾患分類に取り組む。
提案したディープラーニングモデルと新しい学習手法を併用した実験により,サリエンシ予測や画像分類のための既存手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-02-15T01:12:42Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Self-Calibrating Active Binocular Vision via Active Efficient Coding
with Deep Autoencoders [5.653716495767271]
本稿では,視覚表現,頂点,追跡眼球運動の同時学習を含む,アクティブ両眼視の自己校正モデルを提案する。
このモデルは、古典的効率的な符号化仮説をアクティブな知覚へと拡張した、アクティブ・エフェクト・コーディング(AEC)の原則に従っている。
論文 参考訳(メタデータ) (2021-01-27T13:40:16Z) - Relational Graph Learning on Visual and Kinematics Embeddings for
Accurate Gesture Recognition in Robotic Surgery [84.73764603474413]
本稿では,マルチモーダルグラフネットワーク(MRG-Net)の新たなオンラインアプローチを提案し,視覚情報とキネマティクス情報を動的に統合する。
本手法の有効性は, JIGSAWSデータセット上での最先端の成果で実証された。
論文 参考訳(メタデータ) (2020-11-03T11:00:10Z) - Cross-Task Representation Learning for Anatomical Landmark Detection [20.079451546446712]
本稿では,クロスタスク表現学習を通じて,ソースとターゲットタスク間の知識伝達を規則化することを提案する。
本手法は胎児アルコール症候群の診断を容易にする顔の解剖学的特徴を抽出するためのものである。
本稿では,目的モデル上の最終モデルの特徴と中間モデルの特徴を制約することにより,表現学習のための2つのアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-28T21:22:49Z) - A Trainable Optimal Transport Embedding for Feature Aggregation and its
Relationship to Attention [96.77554122595578]
固定サイズのパラメータ化表現を導入し、与えられた入力セットから、そのセットとトレーニング可能な参照の間の最適な輸送計画に従って要素を埋め込み、集約する。
我々のアプローチは大規模なデータセットにスケールし、参照のエンドツーエンドのトレーニングを可能にすると同時に、計算コストの少ない単純な教師なし学習メカニズムも提供する。
論文 参考訳(メタデータ) (2020-06-22T08:35:58Z) - Towards Efficient Processing and Learning with Spikes: New Approaches
for Multi-Spike Learning [59.249322621035056]
各種タスクにおける他のベースラインよりも優れた性能を示すための2つの新しいマルチスパイク学習ルールを提案する。
特徴検出タスクでは、教師なしSTDPの能力と、その制限を提示する能力を再検討する。
提案した学習ルールは,特定の制約を適用せずに,幅広い条件で確実にタスクを解くことができる。
論文 参考訳(メタデータ) (2020-05-02T06:41:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。