論文の概要: ICC++: Explainable Image Retrieval for Art Historical Corpora using
Image Composition Canvas
- arxiv url: http://arxiv.org/abs/2206.11115v1
- Date: Wed, 22 Jun 2022 14:06:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 15:34:39.348837
- Title: ICC++: Explainable Image Retrieval for Art Historical Corpora using
Image Composition Canvas
- Title(参考訳): ICC++:画像合成キャンバスを用いた歴史コーパスの説明可能な画像検索
- Authors: Prathmesh Madhu, Tilman Marquart, Ronak Kosti, Dirk Suckow, Peter
Bell, Andreas Maier, Vincent Christlein
- Abstract要約: 我々は,画像合成Canvas (ICC++) と呼ばれる新しい手法を提案し,類似の合成要素を持つ画像の比較と検索を行う。
ICC++は、Max Imdahl氏の仕事によって動機付けられた低レベルの機能(構成要素)を生成することに特化したICCよりも改善されている。
- 参考スコア(独自算出の注目度): 19.80532568090711
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image compositions are helpful in the study of image structures and assist in
discovering the semantics of the underlying scene portrayed across art forms
and styles. With the digitization of artworks in recent years, thousands of
images of a particular scene or narrative could potentially be linked together.
However, manually linking this data with consistent objectiveness can be a
highly challenging and time-consuming task. In this work, we present a novel
approach called Image Composition Canvas (ICC++) to compare and retrieve images
having similar compositional elements. ICC++ is an improvement over ICC
specializing in generating low and high-level features (compositional elements)
motivated by Max Imdahl's work. To this end, we present a rigorous quantitative
and qualitative comparison of our approach with traditional and
state-of-the-art (SOTA) methods showing that our proposed method outperforms
all of them. In combination with deep features, our method outperforms the best
deep learning-based method, opening the research direction for explainable
machine learning for digital humanities. We will release the code and the data
post-publication.
- Abstract(参考訳): 画像構成は、画像構造の研究に役立ち、芸術形式や様式にまたがって描かれた下層のセマンティクスを発見するのに役立ちます。
近年のアートワークのデジタル化により、特定のシーンや物語の何千ものイメージが一緒にリンクされる可能性がある。
しかし、このデータを一貫した目的性と手動でリンクすることは、非常に困難で時間を要する作業である。
本研究では,画像合成Canvas (ICC++) と呼ばれる,類似の合成要素を持つ画像の比較と検索を行う手法を提案する。
icc++は、max imdahl氏の仕事による低レベル、高レベルな機能(コンポジション要素)の生成を専門とするiccに対する改善である。
そこで本研究では,従来のsota法と従来のsota法との厳密な定量的・質的比較を行い,提案手法がこれらすべてを上回ることを示した。
本手法は,深層機能と組み合わせることで,最良な深層学習手法を上回り,デジタル人文科学のための説明可能な機械学習研究の方向性を開く。
コードと公開後のデータを公開します。
関連論文リスト
- Compositional Entailment Learning for Hyperbolic Vision-Language Models [54.41927525264365]
画像とテキストのペアを超えて、双曲的埋め込みの自然的階層性を完全に活用する方法を示す。
双曲型視覚言語モデルのための構成的包摂学習を提案する。
数百万の画像テキストペアで訓練された双曲型視覚言語モデルに対する経験的評価は、提案手法が従来のユークリッドCLIP学習より優れていることを示している。
論文 参考訳(メタデータ) (2024-10-09T14:12:50Z) - Enhancing Historical Image Retrieval with Compositional Cues [3.2276097734075426]
本稿では,この話題に計算美学,すなわち画像合成から重要な要素を紹介する。
CNNが抽出した合成関連情報を設計した検索モデルに明示的に統合することにより、画像の合成規則と意味情報の両方を考察する。
論文 参考訳(メタデータ) (2024-03-21T10:51:19Z) - Decoupled Textual Embeddings for Customized Image Generation [62.98933630971543]
カスタマイズされたテキスト・ツー・イメージ生成は、ユーザが指定した概念を少数の画像で学習することを目的としている。
既存の方法は、通常、過剰な問題に悩まされ、学習された概念と対象と無関係な情報を絡み合わせる。
フレキシブルなテキスト・ツー・イメージ生成のための不整合概念の埋め込みを学習する新しいアプローチであるDETEXを提案する。
論文 参考訳(メタデータ) (2023-12-19T03:32:10Z) - Exploiting CLIP-based Multi-modal Approach for Artwork Classification
and Retrieval [29.419743866789187]
我々は、Web上の公開リソースからクロールされたアート画像のデータセットであるNoisyArtデータセットに対して、徹底的な実験を行う。
このようなデータセット上でCLIPは、(ゼロショット)分類に関する印象的な結果と、アート・トゥ・アートワークと記述・トゥ・アートドメインの両方において有望な結果を達成する。
論文 参考訳(メタデータ) (2023-09-21T14:29:44Z) - Coarse-to-Fine Contrastive Learning in Image-Text-Graph Space for
Improved Vision-Language Compositionality [50.48859793121308]
対照的に訓練された視覚言語モデルは、視覚と言語表現学習において顕著な進歩を遂げた。
近年の研究では、対象、属性、関係性に対して構成的推論を行う能力に厳しい制限が強調されている。
論文 参考訳(メタデータ) (2023-05-23T08:28:38Z) - Recent Advances in Scene Image Representation and Classification [1.8369974607582584]
本稿では,画像分類に広く用いられている既存のシーン画像表現手法について概説する。
我々は、その性能を質的に(例えば、出力の品質、pros/consなど)、量的に(例えば、精度)比較する。
本稿では,従来のコンピュータビジョン(CV)ベースの手法,ディープラーニング(DL)ベースの手法,検索エンジン(SE)ベースの手法について,最近のシーン画像表現手法の詳細な知見と応用について述べる。
論文 参考訳(メタデータ) (2022-06-15T07:12:23Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - RTIC: Residual Learning for Text and Image Composition using Graph
Convolutional Network [19.017377597937617]
画像検索のための画像とテキストの構成学習について検討する。
本稿では,グラフ畳み込みネットワーク(gcn)と既存の合成手法を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T09:41:52Z) - Bridging Composite and Real: Towards End-to-end Deep Image Matting [88.79857806542006]
画像マッチングにおける意味論と細部の役割について検討する。
本稿では,共有エンコーダと2つの分離デコーダを用いた新しいGlance and Focus Matting Network(GFM)を提案する。
総合的な実証研究により、GFMは最先端の手法より優れていることが示されている。
論文 参考訳(メタデータ) (2020-10-30T10:57:13Z) - Understanding Compositional Structures in Art Historical Images using
Pose and Gaze Priors [20.98603643788824]
画像合成は、アーティストとそのアートワークを研究するために、画像内の相互作用を分析するのに有用である。
本研究では,既存の機械学習技術を用いて,このプロセスの自動化を試みる。
本手法は, (a) 絵画のアクション領域とアクションラインの検出, (b) 前景と背景のポーズに基づくセグメンテーションの2つの中心的なテーマに焦点を当てる。
論文 参考訳(メタデータ) (2020-09-08T15:01:56Z) - Cross-Modal Hierarchical Modelling for Fine-Grained Sketch Based Image
Retrieval [147.24102408745247]
我々は、これまで見過ごされてきたスケッチのさらなる特性、すなわち、詳細レベルの階層性について研究する。
本稿では,スケッチ固有の階層を育成し,それを利用して,対応する階層レベルでのスケッチと写真とのマッチングを行う新しいネットワークを設計する。
論文 参考訳(メタデータ) (2020-07-29T20:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。