論文の概要: ArtContext: Contextualizing Artworks with Open-Access Art History Articles and Wikidata Knowledge through a LoRA-Tuned CLIP Model
- arxiv url: http://arxiv.org/abs/2602.11349v1
- Date: Wed, 11 Feb 2026 20:34:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.531075
- Title: ArtContext: Contextualizing Artworks with Open-Access Art History Articles and Wikidata Knowledge through a LoRA-Tuned CLIP Model
- Title(参考訳): ArtContext: LoRA-Tuned CLIPモデルによるオープンアクセス・アートヒストリー記事とウィキデータ知識によるコンテキスト化アートワーク
- Authors: Samuel Waugh, Stuart James,
- Abstract要約: ArtContextは、Open-Access Art Historyの記事とWikidata Knowledgeのコーパスを取り、Artworksにこの情報を付加するためのパイプラインである。
収集したコーパスによって弱められた新しいモデルPaintingCLIPは,CLIPより優れ,与えられたアートワークのコンテキストを提供する。
- 参考スコア(独自算出の注目度): 3.7333354131478056
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Many Art History articles discuss artworks in general as well as specific parts of works, such as layout, iconography, or material culture. However, when viewing an artwork, it is not trivial to identify what different articles have said about the piece. Therefore, we propose ArtContext, a pipeline for taking a corpus of Open-Access Art History articles and Wikidata Knowledge and annotating Artworks with this information. We do this using a novel corpus collection pipeline, then learn a bespoke CLIP model adapted using Low-Rank Adaptation (LoRA) to make it domain-specific. We show that the new model, PaintingCLIP, which is weakly supervised by the collected corpus, outperforms CLIP and provides context for a given artwork. The proposed pipeline is generalisable and can be readily applied to numerous humanities areas.
- Abstract(参考訳): 多くの美術史記事は、概して芸術作品や、レイアウト、図像、材料文化など、作品の特定の部分について論じている。
しかし、作品を見るとき、その作品について異なる記事が何を言ったかを特定するのは簡単ではない。
そこで我々はArtContextを提案する。ArtContextはオープン・アクセス・アート・ヒストリーの記事とウィキデータ知識のコーパスを収集し、この情報でArtworksに注釈を付けるパイプラインである。
新たなコーパスコレクションパイプラインを使用してこれを実行し,ローランド適応(LoRA)を用いて適用したbespoke CLIPモデルからドメイン固有化を行う。
収集したコーパスによって弱められた新しいモデルPaintingCLIPは,CLIPより優れ,与えられたアートワークのコンテキストを提供する。
提案したパイプラインは一般化可能であり、多くの人文科学分野に容易に適用できる。
関連論文リスト
- ArtSeek: Deep artwork understanding via multimodal in-context reasoning and late interaction retrieval [8.94249680213101]
ArtSeekは、マルチモーダルな大規模言語モデルと検索強化世代を組み合わせた、アート分析のためのフレームワークである。
ArtSeekは、遅延インタラクション検索に基づくインテリジェントなマルチモーダル検索モジュール、アーティスト、ジャンル、スタイル、メディア、タグを予測するための対照的なマルチタスク分類ネットワーク、エージェント推論戦略の3つの重要なコンポーネントを統合している。
このフレームワークは,GraphCLIPによるスタイル分類の+8.4%,ArtPediaでのキャプションの+7.1BLEU@1向上など,複数のベンチマークで最先端の結果を実現している。
論文 参考訳(メタデータ) (2025-07-29T15:31:58Z) - ArtRAG: Retrieval-Augmented Generation with Structured Context for Visual Art Understanding [21.469839845171652]
ArtRAGは、構造化知識と検索強化世代(RAG)を組み合わせた新しいフレームワークである。
推測時には、構造化された検索者が意味的およびトポロジカルなサブグラフを選択して生成をガイドする。
SemArtとArtpediaのデータセットの実験では、ArtRAGがいくつかの高度に訓練されたベースラインを上回っている。
論文 参考訳(メタデータ) (2025-05-09T13:08:27Z) - ArtistAuditor: Auditing Artist Style Pirate in Text-to-Image Generation Models [61.55816738318699]
本稿では,テキスト・画像生成モデルにおける新しいデータ利用監査手法を提案する。
ArtistAuditorは、多彩なスタイルの表現を得るためにスタイル抽出器を使用し、アートワークをアーティストのスタイルのサンプリングとして扱う。
6つのモデルとデータセットの組み合わせによる実験結果は、ArtistAuditorが高いAUC値を達成可能であることを示している。
論文 参考訳(メタデータ) (2025-04-17T16:15:38Z) - Compose Your Aesthetics: Empowering Text-to-Image Models with the Principles of Art [61.28133495240179]
本稿では,ユーザが特定した美学をT2I生成出力と整合させることを目的とした,美学アライメントの新しい課題を提案する。
アートワークが美学にアプローチするための貴重な視点を提供する方法にインスパイアされた私たちは、構成的枠組みのアーティストが採用する視覚的美学を定式化した。
我々は,T2I DMが,ユーザが特定したPoA条件により10の合成制御を効果的に提供することを実証した。
論文 参考訳(メタデータ) (2025-03-15T06:58:09Z) - Recognizing Artistic Style of Archaeological Image Fragments Using Deep Style Extrapolation [2.7233796151875245]
考古学的な発掘で得られた古代の美術品は通常、ある程度の断片化と物理的劣化に悩まされている。
本研究では,画像断片の芸術的スタイルを予測するための一般化されたディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-01T13:38:15Z) - Opt-In Art: Learning Art Styles Only from Few Examples [50.60063523054282]
ごく少数の例を考慮すれば,絵画を使わずに訓練されたモデルを芸術的なスタイルに適応させることが可能であることを示す。
意外なことに, 芸術的データに事前に触れることなく, 高品質な芸術的アウトプットを達成できることが示唆された。
論文 参考訳(メタデータ) (2024-11-29T18:59:01Z) - Context-Infused Visual Grounding for Art [6.748153937479316]
本稿では,CIGAr(Context-Infused GroundingDINO for Art)について述べる。
さらに,手動で注釈付きフレーズグラウンドアノテーションを付加した新しいデータセットUkiyo-eVGを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:41:19Z) - GalleryGPT: Analyzing Paintings with Large Multimodal Models [64.98398357569765]
美術品の分析は、個人の審美性を豊かにし、批判的思考能力を促進することができる芸術鑑賞のための重要かつ基本的な技術である。
アートワークを自動解析する以前の作業は、主に分類、検索、その他の単純なタスクに焦点を当てており、AIの目標とは程遠い。
LLaVAアーキテクチャに基づいて微調整されたGalleryGPTと呼ばれる,絵画解析のための優れた大規模マルチモーダルモデルを提案する。
論文 参考訳(メタデータ) (2024-08-01T11:52:56Z) - Visually-Aware Context Modeling for News Image Captioning [54.31708859631821]
News Image Captioningは、ニュース記事や画像からキャプションを作成することを目的としている。
より優れた名前埋め込みを学習するための顔命名モジュールを提案する。
私たちはCLIPを使用して、画像にセマンティックに近い文を検索します。
論文 参考訳(メタデータ) (2023-08-16T12:39:39Z) - Towards mapping the contemporary art world with ArtLM: an art-specific
NLP model [0.0]
本報告では, 現代美術家間の相互関係を明らかにするために, 総合自然言語処理フレームワーク(ArtLM)を提案する。
広範囲な実験により, 85.6%の精度と84.0%のF1スコアが得られた。
また,ArtLMの出力から構築したアーティストネットワークの可視化と定性解析も提供する。
論文 参考訳(メタデータ) (2022-12-14T09:26:07Z) - The Curious Layperson: Fine-Grained Image Recognition without Expert
Labels [90.88501867321573]
我々は、専門家のアノテーションを使わずに、きめ細かい画像認識という新しい問題を考える。
非専門的な画像記述を用いてオブジェクトの視覚的外観を記述するモデルを学ぶ。
次に、画像記述と文書とを文レベルでマッチングする、きめ細かいテキスト類似性モデルを訓練する。
論文 参考訳(メタデータ) (2021-11-05T17:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。