論文の概要: Iconographic Classification and Content-Based Recommendation for Digitized Artworks
- arxiv url: http://arxiv.org/abs/2602.19698v1
- Date: Mon, 23 Feb 2026 10:44:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.773933
- Title: Iconographic Classification and Content-Based Recommendation for Digitized Artworks
- Title(参考訳): デジタルアートワークにおけるイコノグラフィー分類とコンテンツベース勧告
- Authors: Krzysztof Kutt, Maciej Baczyński,
- Abstract要約: 本稿では,デジタルアートの図形分類とコンテンツに基づく推薦を自動化する概念実証システムを提案する。
プロトタイプは分類とレコメンデーションのための4段階のワークフローを実装しており、YOLOv8オブジェクト検出とアルゴリズムによるIconclassコードへのマッピングを統合している。
- 参考スコア(独自算出の注目度): 2.4493299476776778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a proof-of-concept system that automates iconographic classification and content-based recommendation of digitized artworks using the Iconclass vocabulary and selected artificial intelligence methods. The prototype implements a four-stage workflow for classification and recommendation, which integrates YOLOv8 object detection with algorithmic mappings to Iconclass codes, rule-based inference for abstract meanings, and three complementary recommenders (hierarchical proximity, IDF-weighted overlap, and Jaccard similarity). Although more engineering is still needed, the evaluation demonstrates the potential of this solution: Iconclass-aware computer vision and recommendation methods can accelerate cataloging and enhance navigation in large heritage repositories. The key insight is to let computer vision propose visible elements and to use symbolic structures (Iconclass hierarchy) to reach meaning.
- Abstract(参考訳): 本稿では,Iconclass語彙と選択された人工知能手法を用いて,図形分類とコンテンツに基づくデジタルアートの推薦を自動化する概念実証システムを提案する。
このプロトタイプは、分類とレコメンデーションのための4段階のワークフローを実装しており、YOLOv8オブジェクト検出とアルゴリズムによるIconclassコードへのマッピング、抽象的な意味のルールベースの推論、および3つの補完的なレコメンデーション(階層的近接、IDF重み付け、Jaccard類似性)を統合している。
Iconclass-aware コンピュータビジョンとレコメンデーションメソッドは、大規模な遺産リポジトリのカタログ化を加速し、ナビゲーションを強化します。
重要な洞察は、コンピュータビジョンが目に見える要素を提案させ、シンボル構造(イコンクラス階層)を使って意味に到達させることである。
関連論文リスト
- Hierarchical Process Reward Models are Symbolic Vision Learners [56.94353087007494]
記号型コンピュータビジョンは、明示的な論理規則と構造化された表現を通して図を表現し、機械ビジョンの解釈可能な理解を可能にする。
これは、ピクセルベースのビジュアルモデルと根本的に異なる学習パラダイムを必要とする。
本稿では, インプットダイアグラムをプリミティブにエンコードし, インプットダイアグラムを再構築する自己教師型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2025-12-02T18:46:40Z) - Topological Structure Description for Artcode Detection Using the Shape of Orientation Histogram [11.814741050110909]
この研究は、情報をトポロジにエンコードすることで、自由な外観で自分自身をカモフラージュする特別な種類のオブジェクト(Artcodes)を研究する。
我々は、Artcodesの存在をArtcode提案検出として再定義する問題を定式化する。
この問題に対処するため,Artcodeの一般的なトポロジ的構造を記述するために,方向ヒストグラム形状と呼ばれる新しい特徴記述子を提案する。
論文 参考訳(メタデータ) (2025-08-13T12:33:01Z) - Vocabulary-free Fine-grained Visual Recognition via Enriched Contextually Grounded Vision-Language Model [52.01031460230826]
伝統的なアプローチは固定語彙と閉集合分類パラダイムに大きく依存している。
近年の研究では、大規模言語モデルと視覚言語モデル(VLM)を組み合わせることで、オープンセット認識が可能であることが実証されている。
そこで本研究では,精密な視覚認識のための最先端の手法であるEnriched-FineRを提案する。
論文 参考訳(メタデータ) (2025-07-30T20:06:01Z) - What You Perceive Is What You Conceive: A Cognition-Inspired Framework for Open Vocabulary Image Segmentation [65.80512502962071]
オープン語彙のイメージセグメンテーションは、推論時に動的に調整可能で事前定義された新しいカテゴリを認識するという課題に取り組む。
既存のパラダイムは通常、クラスに依存しない領域のセグメンテーションを実行し、続いてカテゴリマッチングを行い、領域のセグメンテーションとターゲット概念の整合性が劣る。
人間の視覚認識過程をエミュレートするオープン語彙画像セグメント化のための新しい認知刺激フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T06:33:48Z) - Visual and Semantic Prompt Collaboration for Generalized Zero-Shot Learning [58.73625654718187]
一般化されたゼロショット学習は、異なるクラス間で共有される意味情報の助けを借りて、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
既存のアプローチでは、視覚的バックボーンをルッククラスのデータで微調整し、セマンティックな視覚的特徴を得る。
本稿では,効率的な特徴適応のためのプロンプトチューニング技術を活用した,視覚的・意味的プロンプト協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-29T10:17:57Z) - HGCLIP: Exploring Vision-Language Models with Graph Representations for Hierarchical Understanding [18.95003393925676]
異なる階層レベルでカテゴリを分類する場合、従来のユニモーダルアプローチは主にイメージ機能に焦点を当て、複雑なシナリオにおける制限を明らかにする。
ビジョンランゲージモデル(VLM)とクラス階層を統合する最近の研究は、将来性を示しているが、階層関係を完全に活用するには至っていない。
本稿では,CLIPとグラフ表現学習による階層型クラス構造のより深い活用を効果的に組み合わせた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-23T15:42:42Z) - Knowledge-Aware Prompt Tuning for Generalizable Vision-Language Models [64.24227572048075]
本稿では,視覚言語モデルのためのKnowledge-Aware Prompt Tuning(KAPT)フレームワークを提案する。
我々のアプローチは、人間の知性からインスピレーションを得ており、外部知識は、通常、オブジェクトの新たなカテゴリを認識するために組み込まれています。
論文 参考訳(メタデータ) (2023-08-22T04:24:45Z) - Multimodal Search on Iconclass using Vision-Language Pre-Trained Models [18.028251241529578]
本稿では,最も広く使用されている図形分類システムであるIconclassに対する新しい検索エンジンの実装について述べる。
このシステムの新規性は、事前訓練された視覚言語モデル、すなわちCLIPを使用して、ビジュアルクエリやテキストクエリを使用して、Iconclassの概念を検索し、探索することである。
論文 参考訳(メタデータ) (2023-06-23T11:12:48Z) - Hierarchical Image Classification using Entailment Cone Embeddings [68.82490011036263]
まずラベル階層の知識を任意のCNNベースの分類器に注入する。
画像からの視覚的セマンティクスと組み合わせた外部セマンティクス情報の利用が全体的な性能を高めることを実証的に示す。
論文 参考訳(メタデータ) (2020-04-02T10:22:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。