論文の概要: SPGen: Stochastic scanpath generation for paintings using unsupervised domain adaptation
- arxiv url: http://arxiv.org/abs/2602.22049v1
- Date: Wed, 25 Feb 2026 15:57:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.893496
- Title: SPGen: Stochastic scanpath generation for paintings using unsupervised domain adaptation
- Title(参考訳): SPGen:教師なし領域適応を用いた絵画の確率的スキャンパス生成
- Authors: Mohamed Amine Kerkouri, Marouane Tliba, Aladine Chetouani, Alessandro Bruno,
- Abstract要約: SPGenは、視聴者が絵画を観察するときの視線の動きをスキャンパスで予測する新しいディープラーニングモデルである。
我々のアーキテクチャは、異なる固定選択が可能な完全畳み込みニューラルネットワークFCNNと学習可能なガウス事前アルゴリズムを用いて、自然視バイアスをシミュレートする。
- 参考スコア(独自算出の注目度): 48.39894370464046
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Understanding human visual attention is key to preserving cultural heritage We introduce SPGen a novel deep learning model to predict scanpaths the sequence of eye movementswhen viewers observe paintings. Our architecture uses a Fully Convolutional Neural Network FCNN with differentiable fixation selection and learnable Gaussian priors to simulate natural viewing biases To address the domain gap between photographs and artworks we employ unsupervised domain adaptation via a gradient reversal layer allowing the model to transfer knowledge from natural scenes to paintings Furthermore a random noise sampler models the inherent stochasticity of eyetracking data. Extensive testing shows SPGen outperforms existing methods offering a powerful tool to analyze gaze behavior and advance the preservation and appreciation of artistic treasures.
- Abstract(参考訳): 人間の視覚的注意を理解することが文化遺産の保存の鍵となる。 視聴者が絵画を観察するときの視線の動きをスキャンパスで予測する新しい深層学習モデルSPGenを紹介する。
我々のアーキテクチャでは、自然視バイアスをシミュレートするために、識別可能な固定選択と学習可能なガウス以前のガウシアンを用いた完全な畳み込みニューラルネットワークを用いており、写真とアートのドメインギャップに対処するために、勾配反転層を介して教師なし領域適応を採用し、自然のシーンから絵画への知識伝達を可能にし、さらにランダムノイズサンプリング器は、視線追跡データの固有確率をモデル化する。
大規模なテストでは、SPGenは視線行動を分析し、芸術的宝物の保存と鑑賞を前進させる強力なツールを提供する既存の手法よりも優れていた。
関連論文リスト
- DiffEye: Diffusion-Based Continuous Eye-Tracking Data Generation Conditioned on Natural Images [24.810828226931605]
DiffEyeは拡散に基づく訓練フレームワークで、自然画像の自由視聴中に連続的で多様な眼球運動軌跡をモデル化する。
スキャンパスに頼るのではなく、生の視線追跡トラジェクトリを活用することで、DiffEyeは人間の視線行動に固有の変動を捉える。
生成された軌跡はスキャンパスやサリエンシマップに変換することもでき、その結果、人間の視覚的注意の分布をより正確に反映する出力が得られる。
論文 参考訳(メタデータ) (2025-09-20T18:20:51Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - GM-NeRF: Learning Generalizable Model-based Neural Radiance Fields from
Multi-view Images [79.39247661907397]
本稿では,自由視点画像の合成に有効なフレームワークであるGeneralizable Model-based Neural Radiance Fieldsを提案する。
具体的には、多視点2D画像からの出現コードを幾何学的プロキシに登録するための幾何学誘導型アテンション機構を提案する。
論文 参考訳(メタデータ) (2023-03-24T03:32:02Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Unsupervised Discovery of Disentangled Manifolds in GANs [74.24771216154105]
解釈可能な生成プロセスは、様々な画像編集アプリケーションに有用である。
本稿では,任意の学習された生成逆数ネットワークが与えられた潜在空間における解釈可能な方向を検出する枠組みを提案する。
論文 参考訳(メタデータ) (2020-11-24T02:18:08Z) - CNN Detection of GAN-Generated Face Images based on Cross-Band
Co-occurrences Analysis [34.41021278275805]
最終世代のGANモデルでは、自然と視覚的に区別できない合成画像を生成することができる。
本稿では、スペクトル帯域間の不整合を利用して、自然画像とGAN生成物を区別する手法を提案する。
論文 参考訳(メタデータ) (2020-07-25T10:55:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。