論文の概要: Relevance Prediction from Eye-movements Using Semi-interpretable
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2001.05152v1
- Date: Wed, 15 Jan 2020 07:02:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 07:18:36.214710
- Title: Relevance Prediction from Eye-movements Using Semi-interpretable
Convolutional Neural Networks
- Title(参考訳): 半解釈型畳み込みニューラルネットワークによる眼球運動の関連予測
- Authors: Nilavra Bhattacharya, Somnath Rakshit, Jacek Gwizdka, Paul Kogut
- Abstract要約: 眼球運動からテキスト文書の認識関連性を予測するための画像分類手法を提案する。
視線追跡調査では、参加者は短いニュース記事を読み、引き金の質問に答えるために関連性または無関係であると評価した。
参加者の眼球運動スキャンパスを画像としてエンコードし、これらのスキャンパス画像を用いて畳み込みニューラルネットワーク分類器を訓練する。
- 参考スコア(独自算出の注目度): 9.007191808968242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an image-classification method to predict the perceived-relevance
of text documents from eye-movements. An eye-tracking study was conducted where
participants read short news articles, and rated them as relevant or irrelevant
for answering a trigger question. We encode participants' eye-movement
scanpaths as images, and then train a convolutional neural network classifier
using these scanpath images. The trained classifier is used to predict
participants' perceived-relevance of news articles from the corresponding
scanpath images. This method is content-independent, as the classifier does not
require knowledge of the screen-content, or the user's information-task. Even
with little data, the image classifier can predict perceived-relevance with up
to 80% accuracy. When compared to similar eye-tracking studies from the
literature, this scanpath image classification method outperforms previously
reported metrics by appreciable margins. We also attempt to interpret how the
image classifier differentiates between scanpaths on relevant and irrelevant
documents.
- Abstract(参考訳): 眼球運動からテキストの認識関連性を予測する画像分類法を提案する。
視線追跡調査では、参加者は短いニュース記事を読み、トリガー質問への回答に関連性または無関係であると評価した。
被験者の眼球運動スキャンパスを画像として符号化し,これらのスキャンパス画像を用いて畳み込みニューラルネットワーク分類器を訓練する。
トレーニングされた分類器は、対応するスキャンパス画像から参加者のニュース記事の認識関連性を予測するために使用される。
この方法は、画面コンテンツやユーザの情報タスクに関する知識を必要としないため、コンテンツに依存しない。
少ないデータであっても、イメージ分類器は最大80%の精度で知覚関連を予測できる。
文献による類似の視線追跡研究と比較すると, このスキャンパス画像分類法は, 従来報告されていた計測値よりも精度が高い。
また,画像分類器が関連文書と関連文書のスキャンパスを区別する方法についても解釈する。
関連論文リスト
- Guided Interpretable Facial Expression Recognition via Spatial Action Unit Cues [55.97779732051921]
オーキューを分類器学習に明示的に組み込むための新しい学習戦略が提案されている。
分類性能を劣化させることなく階層的解釈性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-01T02:13:49Z) - iCAR: Bridging Image Classification and Image-text Alignment for Visual
Recognition [33.2800417526215]
画像分類は,過去10年間の視覚的表現学習における主要なアプローチである。
しかし、画像テキストアライメントによる視覚学習は、特にゼロショット認識において、有望なパフォーマンスを示すようになった。
本稿では,2つの学習課題を効果的に橋渡しする3つの適応型深層融合法を提案する。
論文 参考訳(メタデータ) (2022-04-22T15:27:21Z) - Knowledge Mining with Scene Text for Fine-Grained Recognition [53.74297368412834]
本研究では,シーンテキスト画像の背景にある暗黙的な文脈知識をマイニングする,エンドツーエンドのトレーニング可能なネットワークを提案する。
我々は,KnowBertを用いて意味表現の関連知識を検索し,それを画像特徴と組み合わせ,きめ細かい分類を行う。
本手法は,3.72%のmAPと5.39%のmAPをそれぞれ上回っている。
論文 参考訳(メタデータ) (2022-03-27T05:54:00Z) - Exploiting the relationship between visual and textual features in
social networks for image classification with zero-shot deep learning [0.0]
本稿では,CLIPニューラルネットワークアーキテクチャの伝達可能な学習能力に基づく分類器アンサンブルを提案する。
本研究は,Placesデータセットのラベルによる画像分類タスクに基づいて,視覚的部分のみを考慮した実験である。
画像に関連付けられたテキストを考えることは、目標に応じて精度を向上させるのに役立つ。
論文 参考訳(メタデータ) (2021-07-08T10:54:59Z) - Telling the What while Pointing the Where: Fine-grained Mouse Trace and
Language Supervision for Improved Image Retrieval [60.24860627782486]
きめ細かい画像検索は、しばしば、探しているコンテンツがどこにあるかを表現する能力を必要とする。
本稿では,ユーザが音声自然言語(“What”)とマウスが空のキャンバス(“where”)にトレースした画像を同時に記述する画像検索装置について述べる。
我々のモデルは、この空間的ガイダンスを考慮に入れ、テキストのみの等価システムと比較して、より正確な検索結果を提供する。
論文 参考訳(メタデータ) (2021-02-09T17:54:34Z) - Intrinsic Image Captioning Evaluation [53.51379676690971]
I2CE(Intrinsic Image Captioning Evaluation)と呼ばれる画像キャプションのための学習ベースメトリクスを提案する。
実験の結果,提案手法は頑健な性能を維持し,意味的類似表現やアライメントの少ない意味論に遭遇した場合,候補キャプションに対してより柔軟なスコアを与えることができた。
論文 参考訳(メタデータ) (2020-12-14T08:36:05Z) - Grafit: Learning fine-grained image representations with coarse labels [114.17782143848315]
本稿では,学習ラベルの提供するものよりも細かな表現を学習する問題に対処する。
粗いラベルと下層の細粒度潜在空間を併用することにより、カテゴリレベルの検索手法の精度を大幅に向上させる。
論文 参考訳(メタデータ) (2020-11-25T19:06:26Z) - Using Unlabeled Data for Increasing Low-Shot Classification Accuracy of
Relevant and Open-Set Irrelevant Images [0.4110108749051655]
自動運転車による探索,探索,偵察作業には,画像分類機能が必要である。
学習中に,各関連クラスに対して,ラベル付き画像の控えめな数を使用する,オープンセットのローショット分類器を提案する。
関連するクラスから画像を識別し、候補画像が無関係かどうかを判断し、トレーニングに含まれていない無関係画像のカテゴリをさらに認識することができる。
論文 参考訳(メタデータ) (2020-10-01T23:11:07Z) - Learning unbiased zero-shot semantic segmentation networks via
transductive transfer [14.55508599873219]
ゼロショットセマンティックセグメンテーションにおける予測バイアスを軽減するために, 簡単に実装可能なトランスダクティブ手法を提案する。
本手法は,全画素レベルのラベルを持つソースイメージと,未ラベルのターゲットイメージの両方をトレーニング中に利用できると仮定する。
論文 参考訳(メタデータ) (2020-07-01T14:25:13Z) - Deep semantic gaze embedding and scanpath comparison for expertise
classification during OPT viewing [6.700983301090583]
本稿では,畳み込みニューラルネットワーク(CNN)を用いた視線スキャンパス比較手法を提案する。
筆者らのアプローチでは,画像意味論を取り入れたまま,93%の精度で初級者から専門家を識別することができた。
論文 参考訳(メタデータ) (2020-03-31T07:00:59Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。