論文の概要: Art Authentication with Vision Transformers
- arxiv url: http://arxiv.org/abs/2307.03039v2
- Date: Mon, 10 Jul 2023 13:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 10:11:34.405912
- Title: Art Authentication with Vision Transformers
- Title(参考訳): 視覚トランスフォーマによるアート認証
- Authors: Ludovica Schaerf, Carina Popovici, Eric Postma
- Abstract要約: 本稿では,視覚変換器の優位性について検討する。
我々は,Swin Transformerのアート認証性能とEfficientNetのアート認証性能を比較した。
模倣のみで構成されたコントラストセットでは、認証精度が85%を超えることにより、Swin TransformerはEfficientNetよりも優れていることが分かる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Transformers, initially developed for language, have been
successfully applied to visual tasks. Vision Transformers have been shown to
push the state-of-the-art in a wide range of tasks, including image
classification, object detection, and semantic segmentation. While ample
research has shown promising results in art attribution and art authentication
tasks using Convolutional Neural Networks, this paper examines if the
superiority of Vision Transformers extends to art authentication, improving,
thus, the reliability of computer-based authentication of artworks. Using a
carefully compiled dataset of authentic paintings by Vincent van Gogh and two
contrast datasets, we compare the art authentication performances of Swin
Transformers with those of EfficientNet. Using a standard contrast set
containing imitations and proxies (works by painters with styles closely
related to van Gogh), we find that EfficientNet achieves the best performance
overall. With a contrast set that only consists of imitations, we find the Swin
Transformer to be superior to EfficientNet by achieving an authentication
accuracy of over 85%. These results lead us to conclude that Vision
Transformers represent a strong and promising contender in art authentication,
particularly in enhancing the computer-based ability to detect artistic
imitations.
- Abstract(参考訳): 近年では、言語用に開発されたTransformersが視覚タスクにうまく適用されている。
視覚トランスフォーマーは、画像分類、オブジェクト検出、セマンティックセグメンテーションなど、最先端のタスクを幅広いタスクで推進することが示されている。
本研究は,畳み込みニューラルネットワークを用いたアートアトリビューションとアート認証の課題において有望な結果が得られたが,視覚トランスフォーマーの優位性がアート認証に拡張され,コンピュータベースのアート認証の信頼性が向上するかどうかを検証した。
ヴィンセント・ファン・ゴッホ(vincent van gogh)と2つのコントラストデータセットによる真正な絵画の注意深くコンパイルされたデータセットを用いて、スウィントランスフォーマのアート認証性能と効率性を比較した。
模倣とプロキシを含む標準的なコントラストセット(ファン・ゴッホと密接に関連するスタイルを持つ画家による作品)を用いて、EfficientNetは全体として最高のパフォーマンスを達成する。
模倣のみで構成されたコントラストセットでは、認証精度が85%を超えることにより、Swin TransformerはEfficientNetよりも優れていることが分かる。
これらの結果から,視覚変換器は,特にコンピュータによる芸術的模倣検出能力の向上において,芸術的認証において強力かつ有望な競争相手である,という結論に至った。
関連論文リスト
- Degenerate Swin to Win: Plain Window-based Transformer without
Sophisticated Operations [36.57766081271396]
Vision Transformerは、長い範囲の依存関係を特徴付けることができるより大きな受容フィールドを持つ。
効率を上げるために、ウィンドウベースのVision Transformerが登場した。
Swin Transformerのキーデザイン要素であるシフトウインドウパーティショニングの必要性を確認する。
論文 参考訳(メタデータ) (2022-11-25T17:36:20Z) - Learning Explicit Object-Centric Representations with Vision
Transformers [81.38804205212425]
我々は、マスク付き自動符号化の自己超越タスクを構築し、トランスフォーマーを用いたオブジェクト中心表現学習の有効性を探求する。
複数のマルチオブジェクト・ベンチマークのセグメンテーション・メトリクスによって測定された単純なシーンを効率的に分解できることを示す。
論文 参考訳(メタデータ) (2022-10-25T16:39:49Z) - Visual Prompt Tuning for Generative Transfer Learning [26.895321693202284]
生成的知識伝達による視覚変換器の学習法を提案する。
我々は,映像を自己回帰的あるいは非自己回帰的変換器への視覚トークンのシーケンスとして表現する最先端の生成的視覚変換器を基盤とする。
新しい領域に適応するために、画像トークンシーケンスへのプロンプトと呼ばれる学習可能なトークンを優先するプロンプトチューニングを用いる。
論文 参考訳(メタデータ) (2022-10-03T14:56:05Z) - Vision Transformers: State of the Art and Research Challenges [26.462994554165697]
本稿では,異なるアーキテクチャ設計と視覚変換器のトレーニング手法に関する文献の概要を概説する。
我々の目標は、オープンな研究機会を体系的にレビューすることです。
論文 参考訳(メタデータ) (2022-07-07T02:01:56Z) - A ConvNet for the 2020s [94.89735578018099]
ビジョントランスフォーマー(ViT)は、最先端の画像分類モデルとしてすぐにConvNetsに取って代わった。
これは、いくつかのConvNetプリエントを再導入した階層型トランスフォーマーであり、トランスフォーマーは一般的なビジョンバックボーンとして実用的である。
本研究では、設計空間を再検討し、純粋なConvNetが達成できることの限界をテストする。
論文 参考訳(メタデータ) (2022-01-10T18:59:10Z) - AdaViT: Adaptive Vision Transformers for Efficient Image Recognition [78.07924262215181]
AdaViTは、パッチ、セルフアテンションヘッド、およびトランスフォーマーブロックを使用するための利用ポリシーを導出する適応フレームワークである。
本手法は,0.8%の精度で,最先端のビジョントランスに比べて2倍以上の効率向上を実現している。
論文 参考訳(メタデータ) (2021-11-30T18:57:02Z) - Transformers in Vision: A Survey [101.07348618962111]
トランスフォーマーは、入力シーケンス要素間の長い依存関係をモデリングし、シーケンスの並列処理をサポートします。
変圧器は設計に最小限の誘導バイアスを必要とし、自然にセット関数として適しています。
本調査は,コンピュータビジョン分野におけるトランスフォーマーモデルの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2021-01-04T18:57:24Z) - Image Sentiment Transfer [84.91653085312277]
我々は,イメージの感情伝達という,重要ではあるが未調査の研究課題を導入する。
本稿では,オブジェクトレベルでイメージの感情伝達を行う,効果的で柔軟なフレームワークを提案する。
中心となるオブジェクトレベルの感情伝達のために、我々は新しい感性認識型GAN(SentiGAN)を提案する。
論文 参考訳(メタデータ) (2020-06-19T19:28:08Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。