論文の概要: Gesture Classification in Artworks Using Contextual Image Features
- arxiv url: http://arxiv.org/abs/2412.03456v1
- Date: Wed, 04 Dec 2024 16:45:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:07:57.337374
- Title: Gesture Classification in Artworks Using Contextual Image Features
- Title(参考訳): テクスチャ画像特徴を用いたアートワークのジェスチャー分類
- Authors: Azhar Hussian, Mathias Zinnen, Thi My Hang Tran, Andreas Maier, Vincent Christlein,
- Abstract要約: 歴史的美術品における匂いのジェスチャーを識別する手法を提案する。
ローカルな特徴とグローバルな画像コンテキストを組み合わせることで,特にバックボーンの分類性能が向上することを示す。
- 参考スコア(独自算出の注目度): 5.622255215105264
- License:
- Abstract: Recognizing gestures in artworks can add a valuable dimension to art understanding and help to acknowledge the role of the sense of smell in cultural heritage. We propose a method to recognize smell gestures in historical artworks. We show that combining local features with global image context improves classification performance notably on different backbones.
- Abstract(参考訳): 芸術作品におけるジェスチャーの認識は、芸術的理解に価値ある次元を与え、文化遺産における嗅覚の役割を認識するのに役立つ。
歴史的美術品における匂いのジェスチャーを識別する手法を提案する。
ローカルな特徴とグローバルな画像コンテキストを組み合わせることで,特にバックボーンの分類性能が向上することを示す。
関連論文リスト
- Context-Infused Visual Grounding for Art [6.748153937479316]
本稿では,CIGAr(Context-Infused GroundingDINO for Art)について述べる。
さらに,手動で注釈付きフレーズグラウンドアノテーションを付加した新しいデータセットUkiyo-eVGを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:41:19Z) - Neural-Polyptych: Content Controllable Painting Recreation for Diverse Genres [30.83874057768352]
我々は,広汎で高解像度な絵画の作成を容易にするために,ニューラル・ポリプチッチという統一的な枠組みを提案する。
我々は、生成プロセスを2つの部分に分割する、マルチスケールのGANベースのアーキテクチャを設計した。
我々は東洋絵画と西洋絵画の両方の多様なジャンルへのアプローチを検証する。
論文 参考訳(メタデータ) (2024-09-29T12:46:00Z) - Novel Artistic Scene-Centric Datasets for Effective Transfer Learning in Fragrant Spaces [6.780679790916122]
文化遺産研究でしばしば見落とされ、人間の経験やアイデンティティを形作る上で重要な役割を担っている。
弱ラベル付き学習データを用いた移動学習手法は、香り空間の分類を著しく改善できることを示す。
論文 参考訳(メタデータ) (2024-07-16T13:18:05Z) - Guided Interpretable Facial Expression Recognition via Spatial Action Unit Cues [55.97779732051921]
オーキューを分類器学習に明示的に組み込むための新しい学習戦略が提案されている。
分類性能を劣化させることなく階層的解釈性を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-02-01T02:13:49Z) - ARTxAI: Explainable Artificial Intelligence Curates Deep Representation
Learning for Artistic Images using Fuzzy Techniques [11.286457041998569]
芸術的画像分類における異なる課題から得られる特徴が、類似した性質の他の課題を解決するのにどのように適しているかを示す。
本稿では、画像の既知の視覚特性をディープラーニングモデルで用いる特徴にマッピングする、説明可能な人工知能手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T13:15:13Z) - ALADIN-NST: Self-supervised disentangled representation learning of
artistic style through Neural Style Transfer [60.6863849241972]
我々は、画像に描かれた意味的内容から、より強く絡み合った視覚芸術スタイルの表現を学習する。
スタイルと内容の絡み合いに強く対処することで、スタイル固有のメトリクスが大きく向上することを示します。
論文 参考訳(メタデータ) (2023-04-12T10:33:18Z) - A domain adaptive deep learning solution for scanpath prediction of
paintings [66.46953851227454]
本稿では,ある絵画の視覚的体験における視聴者の眼球運動分析に焦点を当てた。
我々は、人間の視覚的注意を予測するための新しいアプローチを導入し、人間の認知機能に影響を及ぼす。
提案した新しいアーキテクチャは、画像を取り込んでスキャンパスを返す。
論文 参考訳(メタデータ) (2022-09-22T22:27:08Z) - Toward Understanding WordArt: Corner-Guided Transformer for Scene Text
Recognition [63.6608759501803]
我々は芸術的テキストを3つのレベルで認識することを提案する。
コーナーポイントは、文字内の局所的な特徴の抽出を誘導するために用いられる。
第二に、文字レベルの特徴をモデル化するために文字の対照的な損失を設計し、文字分類のための特徴表現を改善する。
第3に,Transformerを用いて画像レベルのグローバルな特徴を学習し,コーナーポイントのグローバルな関係をモデル化する。
論文 参考訳(メタデータ) (2022-07-31T14:11:05Z) - Arbitrary Style Transfer with Structure Enhancement by Combining the
Global and Local Loss [51.309905690367835]
本稿では,グローバルな損失と局所的な損失を組み合わせ,構造拡張を伴う任意のスタイル転送手法を提案する。
実験結果から,視覚効果の優れた高画質画像が生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-23T07:02:57Z) - Attribute Prototype Network for Any-Shot Learning [113.50220968583353]
属性ローカライズ機能を統合した画像表現は、任意のショット、すなわちゼロショットと少数ショットのイメージ分類タスクに有用である、と我々は主張する。
クラスレベルの属性のみを用いてグローバルな特徴とローカルな特徴を共同で学習する新しい表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-04T02:25:40Z) - Understanding Compositional Structures in Art Historical Images using
Pose and Gaze Priors [20.98603643788824]
画像合成は、アーティストとそのアートワークを研究するために、画像内の相互作用を分析するのに有用である。
本研究では,既存の機械学習技術を用いて,このプロセスの自動化を試みる。
本手法は, (a) 絵画のアクション領域とアクションラインの検出, (b) 前景と背景のポーズに基づくセグメンテーションの2つの中心的なテーマに焦点を当てる。
論文 参考訳(メタデータ) (2020-09-08T15:01:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。