論文の概要: A Deep Learning Framework for Visual Attention Prediction and Analysis of News Interfaces
- arxiv url: http://arxiv.org/abs/2503.17212v1
- Date: Fri, 21 Mar 2025 15:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:55:38.085060
- Title: A Deep Learning Framework for Visual Attention Prediction and Analysis of News Interfaces
- Title(参考訳): ニュースインタフェースの視覚的注意予測と分析のためのディープラーニングフレームワーク
- Authors: Matthew Kenely, Dylan Seychell, Carl James Debono, Chris Porter,
- Abstract要約: ニュースメディアがニュースインターフェースに注目する競争は、人口統計学的に認識されたサリエンシ予測モデルの必要性を強調している。
本稿では,DeepGaze IIEを用いてSaRa(Saliency Ranking)モデルを強化するディープラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.2624902795082451
- License:
- Abstract: News outlets' competition for attention in news interfaces has highlighted the need for demographically-aware saliency prediction models. Despite recent advancements in saliency detection applied to user interfaces (UI), existing datasets are limited in size and demographic representation. We present a deep learning framework that enhances the SaRa (Saliency Ranking) model with DeepGaze IIE, improving Salient Object Ranking (SOR) performance by 10.7%. Our framework optimizes three key components: saliency map generation, grid segment scoring, and map normalization. Through a two-fold experiment using eye-tracking (30 participants) and mouse-tracking (375 participants aged 13--70), we analyze attention patterns across demographic groups. Statistical analysis reveals significant age-based variations (p < 0.05, {\epsilon^2} = 0.042), with older users (36--70) engaging more with textual content and younger users (13--35) interacting more with images. Mouse-tracking data closely approximates eye-tracking behavior (sAUC = 0.86) and identifies UI elements that immediately stand out, validating its use in large-scale studies. We conclude that saliency studies should prioritize gathering data from a larger, demographically representative sample and report exact demographic distributions.
- Abstract(参考訳): ニュースメディアがニュースインターフェースに注目する競争は、人口統計学的に認識されたサリエンシ予測モデルの必要性を強調している。
ユーザインターフェース(UI)に適用されたサリエンシ検出の最近の進歩にもかかわらず、既存のデータセットはサイズと人口統計学的表現に制限されている。
本稿では,DeepGaze IIEでSaRa(Saliency Ranking)モデルを強化し,SORの性能を10.7%向上するディープラーニングフレームワークを提案する。
本フレームワークは,サリエンシマップ生成,グリッドセグメントスコアリング,マップ正規化という3つの重要なコンポーネントを最適化する。
視線追跡(30名)とマウス追跡(375名,13~70名)を併用した2次元実験により,人口集団間の注意パターンを解析した。
統計的分析では、年齢による大きなバリエーション(p < 0.05, {\epsilon^2} = 0.042)が示され、高齢者(36-70)はテキストコンテンツに、若年者(13-35)は画像とより交流する。
マウス追跡データは、視線追跡行動(sAUC = 0.86)を近似し、すぐに目立つUI要素を特定し、大規模な研究での使用を検証する。
以上の結果から,より大規模で人口統計学的に代表されるサンプルからのデータの収集を優先し,正確な人口分布を報告すべきであると結論付けた。
関連論文リスト
- Accurate and Data-Efficient Toxicity Prediction when Annotators Disagree [1.3749490831384268]
アノテータが同意しない場合、個々のアノテータによって与えられるラベルを予測すれば、従来のラベル集約によって見落とされたニュアンスをキャプチャすることができる。
テキストの毒性に基づいて,個々のアノテータ評価を予測するための3つのアプローチを提案する。
評価予測のための人口統計情報の有用性について検討する。
論文 参考訳(メタデータ) (2024-10-16T04:26:40Z) - SeeBel: Seeing is Believing [0.9790236766474201]
本稿では,全画像のセグメンテーションにおけるデータセット統計とAI性能を比較するための3つの可視化手法を提案する。
我々のプロジェクトは、画像の注意重みを可視化することで、セグメンテーションのための訓練されたAIモデルの解釈可能性をさらに高めようとしている。
我々は,コンピュータビジョンとAI領域における可視化ツールの有効性を検討するために,実際のユーザを対象に調査を行うことを提案する。
論文 参考訳(メタデータ) (2023-12-18T05:11:00Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - VIS-iTrack: Visual Intention through Gaze Tracking using Low-Cost Webcam [0.0]
人間の意図は、望ましい情報を得るための内的、精神的特徴である。
本研究では、リアルタイム視線データを低コストのレギュラーウェブカメラで分析することにより、そのような意図を判断する。
論文 参考訳(メタデータ) (2022-02-05T16:00:03Z) - Perceptual Score: What Data Modalities Does Your Model Perceive? [73.75255606437808]
モデルが入力特徴の異なる部分集合に依存する度合いを評価する指標である知覚スコアを導入する。
近年,視覚的質問応答に対するマルチモーダルモデルでは,前者よりも視覚的データを知覚しにくい傾向がみられた。
知覚スコアを使用することで、スコアをデータサブセットのコントリビューションに分解することで、モデルのバイアスを分析することもできる。
論文 参考訳(メタデータ) (2021-10-27T12:19:56Z) - Visual Distant Supervision for Scene Graph Generation [66.10579690929623]
シーングラフモデルは通常、大量のラベル付きデータを人間のアノテーションで教師付き学習する必要がある。
本研究では,人間ラベルデータを用いずにシーングラフモデルを訓練できる視覚関係学習の新しいパラダイムである視覚遠方監視を提案する。
包括的な実験結果から、我々の遠隔監視モデルは、弱い監督と半監督のベースラインよりも優れています。
論文 参考訳(メタデータ) (2021-03-29T06:35:24Z) - Understanding Visual Saliency in Mobile User Interfaces [31.278845008743698]
30の参加者と193のモバイルUIによる制御研究の結果を紹介します。
結果は、ユーザが見る方向を導く上で、期待する役割を物語っている。
モバイルUIの視覚的サリエンシを調査するための最初の注釈付きデータセットをリリースする。
論文 参考訳(メタデータ) (2021-01-22T15:45:13Z) - RethNet: Object-by-Object Learning for Detecting Facial Skin Problems [1.6114012813668934]
11種類の顔面皮膚病変を検出するためのオブジェクト・バイ・オブジェクト・ラーニング手法を提案する。
提案モデルは,deeplab v3+よりも15.34%向上した,データセットテストで79.46%のmiouに到達した。
論文 参考訳(メタデータ) (2021-01-06T16:41:03Z) - User-Guided Domain Adaptation for Rapid Annotation from User
Interactions: A Study on Pathological Liver Segmentation [49.96706092808873]
マスクベースの医用画像のアノテーション、特に3Dデータは、信頼できる機械学習モデルを開発する上でボトルネックとなる。
ユーザガイド付きドメイン適応(UGDA)フレームワークを提案する。このフレームワークは,UIとマスクの複合分布をモデル化するために,予測に基づくドメイン適応(PADA)を利用する。
UGDAは、利用可能なUIのごく一部しか見ていない場合でも、最先端のパフォーマンスを維持することができる。
論文 参考訳(メタデータ) (2020-09-05T04:24:58Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - A Graph-based Interactive Reasoning for Human-Object Interaction
Detection [71.50535113279551]
本稿では,HOIを推論するインタラクティブグラフ(Interactive Graph, in-Graph)という,グラフに基づくインタラクティブ推論モデルを提案する。
In-GraphNet と呼ばれる HOI を検出するための新しいフレームワークを構築した。
私たちのフレームワークはエンドツーエンドのトレーニングが可能で、人間のポーズのような高価なアノテーションはありません。
論文 参考訳(メタデータ) (2020-07-14T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。