論文の概要: The Met Dataset: Instance-level Recognition for Artworks
- arxiv url: http://arxiv.org/abs/2202.01747v1
- Date: Thu, 3 Feb 2022 18:13:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 14:25:00.871589
- Title: The Met Dataset: Instance-level Recognition for Artworks
- Title(参考訳): Metデータセット: アートワークのインスタンスレベルの認識
- Authors: Nikolaos-Antonios Ypsilantis, Noa Garcia, Guangxing Han, Sarah
Ibrahimi, Nanne Van Noord, Giorgos Tolias
- Abstract要約: この研究は、アートワークの領域における大規模インスタンスレベルの認識のためのデータセットを導入している。
私たちは、約224kクラスの大規模なトレーニングセットを形成するために、The Met博物館のオープンアクセスコレクションに依存しています。
- 参考スコア(独自算出の注目度): 19.43143591288768
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a dataset for large-scale instance-level recognition in
the domain of artworks. The proposed benchmark exhibits a number of different
challenges such as large inter-class similarity, long tail distribution, and
many classes. We rely on the open access collection of The Met museum to form a
large training set of about 224k classes, where each class corresponds to a
museum exhibit with photos taken under studio conditions. Testing is primarily
performed on photos taken by museum guests depicting exhibits, which introduces
a distribution shift between training and testing. Testing is additionally
performed on a set of images not related to Met exhibits making the task
resemble an out-of-distribution detection problem. The proposed benchmark
follows the paradigm of other recent datasets for instance-level recognition on
different domains to encourage research on domain independent approaches. A
number of suitable approaches are evaluated to offer a testbed for future
comparisons. Self-supervised and supervised contrastive learning are
effectively combined to train the backbone which is used for non-parametric
classification that is shown as a promising direction. Dataset webpage:
http://cmp.felk.cvut.cz/met/
- Abstract(参考訳): 本稿では,アートワーク領域における大規模インスタンスレベルの認識のためのデータセットを提案する。
提案するベンチマークでは,クラス間の大きな類似性,ロングテール分布,多数のクラスなど,さまざまな課題が提示されている。
我々は、メトロポリタン博物館のオープンアクセスコレクションを頼りに、約224kクラスの大規模なトレーニングセットを形成し、各クラスは、スタジオ条件下で撮影された写真を含む博物館の展示に対応する。
テストは、主に博物館の客が展示品を描いた写真で行われ、トレーニングとテストの間の配布シフトが導入された。
さらに、Metに関係のない一連の画像に対して、タスクが配布外検出問題に似るようにテストを行う。
提案するベンチマークは、ドメイン独立アプローチの研究を促進するために、異なるドメインでのインスタンスレベルの認識のための他の最近のデータセットのパラダイムに従っている。
将来の比較のためのテストベッドを提供するために、いくつかの適切なアプローチが評価されている。
自己教師付きおよび教師付きコントラスト学習を効果的に組み合わせて、有望な方向を示す非パラメトリック分類に使用されるバックボーンを訓練する。
dataset webpage: http://cmp.felk.cvut.cz/met/
関連論文リスト
- Masked Image Modeling: A Survey [73.21154550957898]
マスク付き画像モデリングは、コンピュータビジョンにおける強力な自己教師付き学習技術として登場した。
我々は近年,分類学を構築し,最も顕著な論文をレビューしている。
我々は,最も人気のあるデータセット上で,様々なマスク付き画像モデリング手法の性能評価結果を集約する。
論文 参考訳(メタデータ) (2024-08-13T07:27:02Z) - Multi-level Relation Learning for Cross-domain Few-shot Hyperspectral
Image Classification [8.78907921615878]
クロスドメインの少数ショットハイパースペクトル画像分類は、ソースドメインから多数のラベル付きサンプルから事前知識を学ぶことに焦点を当てている。
本稿では,異なるレベルのサンプル関係を学習し,それらをモデル学習プロセスに取り入れることを提案する。
論文 参考訳(メタデータ) (2023-11-02T13:06:03Z) - A Semi-Paired Approach For Label-to-Image Translation [6.888253564585197]
ラベル・ツー・イメージ翻訳のための半教師付き(半ペア)フレームワークを初めて紹介する。
半ペア画像設定では、小さなペアデータとより大きなペア画像とラベルのセットにアクセスすることができる。
本稿では,この共有ネットワークのためのトレーニングアルゴリズムを提案し,非表現型クラスに着目した希少なクラスサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-23T16:13:43Z) - Neural Congealing: Aligning Images to a Joint Semantic Atlas [14.348512536556413]
画像の集合を横断的に意味的に共通するコンテンツを調整するための,ゼロショットの自己教師型フレームワークを提案する。
提案手法は,DINO-ViTの事前学習能力を利用して学習する。
提案手法は,大規模データセットに対する広範囲なトレーニングを必要とする最先端の手法と比較して,好適に動作することを示す。
論文 参考訳(メタデータ) (2023-02-08T09:26:22Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Learning Contrastive Representation for Semantic Correspondence [150.29135856909477]
セマンティックマッチングのためのマルチレベルコントラスト学習手法を提案する。
画像レベルのコントラスト学習は、畳み込み特徴が類似したオブジェクト間の対応を見出すための鍵となる要素であることを示す。
論文 参考訳(メタデータ) (2021-09-22T18:34:14Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Instance Localization for Self-supervised Detection Pretraining [68.24102560821623]
インスタンスローカリゼーションと呼ばれる,新たな自己監視型プリテキストタスクを提案する。
境界ボックスを事前学習に組み込むことで、より優れたタスクアライメントとアーキテクチャアライメントが促進されることを示す。
実験結果から, オブジェクト検出のための最先端の転送学習結果が得られた。
論文 参考訳(メタデータ) (2021-02-16T17:58:57Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。