論文の概要: Multi-Class Zero-Shot Learning for Artistic Material Recognition
- arxiv url: http://arxiv.org/abs/2010.13850v1
- Date: Mon, 26 Oct 2020 19:04:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 18:20:41.841823
- Title: Multi-Class Zero-Shot Learning for Artistic Material Recognition
- Title(参考訳): 芸術的素材認識のためのマルチクラスゼロショット学習
- Authors: Alexander W Olson, Andreea Cucu, Tom Bock
- Abstract要約: Zero-Shot Learning(ZSL)は、トランスファーラーニングの極端な形態であり、トレーニング段階で分類されるデータのラベル付き例は提供されない。
ここでは、作品の主題の英語記述と合成資料との関係を学習することにより、作品が作成された資料を特定するためのモデルについて概説する。
我々は、全く異なる博物館のデータセットから、作品に使われている素材を正確に識別できるモデルを作成する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Zero-Shot Learning (ZSL) is an extreme form of transfer learning, where no
labelled examples of the data to be classified are provided during the training
stage. Instead, ZSL uses additional information learned about the domain, and
relies upon transfer learning algorithms to infer knowledge about the missing
instances. ZSL approaches are an attractive solution for sparse datasets. Here
we outline a model to identify the materials with which a work of art was
created, by learning the relationship between English descriptions of the
subject of a piece and its composite materials. After experimenting with a
range of hyper-parameters, we produce a model which is capable of correctly
identifying the materials used on pieces from an entirely distinct museum
dataset. This model returned a classification accuracy of 48.42% on 5,000
artworks taken from the Tate collection, which is distinct from the Rijksmuseum
network used to create and train our model.
- Abstract(参考訳): Zero-Shot Learning(ZSL)は、トランスファーラーニングの極端な形態であり、トレーニング段階で分類されるデータのラベル付き例は提供されない。
代わりに、ZSLはドメインについて学んだ追加情報を使用し、欠落したインスタンスに関する知識を推測するために転送学習アルゴリズムに依存している。
ZSLアプローチはスパースデータセットの魅力的なソリューションである。
ここでは、作品の主題の英語記述と合成資料との関係を学習することにより、作品が作成された資料を特定するためのモデルについて概説する。
様々なハイパーパラメータを実験した結果、全く異なる博物館のデータセットからピースに使用される材料を正確に識別できるモデルを作成した。
このモデルはテイト・コレクションから採取された5,000点の美術品で48.42%の分類精度を返しました。
関連論文リスト
- Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Deep Semantic-Visual Alignment for Zero-Shot Remote Sensing Image Scene
Classification [26.340737217001497]
ゼロショット学習(ZSL)は、トレーニング中に見えない新しいクラスを識別する。
以前のZSLモデルは、主に言語モデルから抽出された手作業でラベル付けされた属性や単語の埋め込みに依存し、見受けられるクラスから新しいクラスに知識を伝達する。
本稿では,視覚的に検出可能な属性を自動的に収集することを提案する。属性と画像のセマンティック・視覚的類似性を記述することで,クラスごとの属性を予測する。
論文 参考訳(メタデータ) (2024-02-03T09:18:49Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - NLLB-CLIP -- train performant multilingual image retrieval model on a
budget [65.268245109828]
NLLBモデルからテキストエンコーダを用いたNLLB-CLIP-CLIPモデルを提案する。
201言語でキャプションを持つ106,246の良質な画像のデータセットを自動生成しました。
我々は,NLLB-CLIPが最先端モデルに匹敵する品質であり,低リソース言語ではかなり優れていることを示す。
論文 参考訳(メタデータ) (2023-09-04T23:26:11Z) - Recognizing Unseen Objects via Multimodal Intensive Knowledge Graph
Propagation [68.13453771001522]
画像の領域と対応するセマンティック埋め込みとをマッチングする多モード集中型ZSLフレームワークを提案する。
我々は、大規模な実世界のデータに基づいて、広範囲な実験を行い、そのモデルを評価する。
論文 参考訳(メタデータ) (2023-06-14T13:07:48Z) - Terrain Classification using Transfer Learning on Hyperspectral Images:
A Comparative study [0.13999481573773068]
畳み込みニューラルネットワーク(CNN)とMulti-Layer Perceptron(MLP)は画像分類の有効な方法であることが証明されている。
しかし、彼らは長いトレーニング時間と大量のラベル付きデータの要求の問題に悩まされている。
本稿では,移動学習法を用いてトレーニング時間を短縮し,大規模ラベル付きデータセットへの依存を減らすことを提案する。
論文 参考訳(メタデータ) (2022-06-19T14:36:33Z) - Vision Models Are More Robust And Fair When Pretrained On Uncurated
Images Without Supervision [38.22842778742829]
差別的な自己教師型学習は、インターネット画像の任意のランダムなグループでのトレーニングモデルを可能にする。
データ前処理や事前の仮定なしで、何十億ものランダムなイメージでモデルをトレーニングします。
フェアネス、分布シフト、地理的多様性、微粒化認識、画像コピー検出、および多くの画像分類データセットを含む50以上のベンチマークにおいて、我々のモデル性能を広範囲に研究し、検証した。
論文 参考訳(メタデータ) (2022-02-16T22:26:47Z) - Learning from scarce information: using synthetic data to classify Roman
fine ware pottery [0.0]
そこで本研究では,モデルがまず,元のオブジェクトの特徴を再現した合成データセット上で訓練されるトランスファー学習手法を提案する。
陶器の図面から複製された特徴を取り入れることで、専門家の知識をプロセスに統合することができた。
この最初の訓練の後、モデルは実際の船の写真からのデータで微調整された。
論文 参考訳(メタデータ) (2021-07-03T10:30:46Z) - Few-Cost Salient Object Detection with Adversarial-Paced Learning [95.0220555274653]
本稿では,少数のトレーニング画像にのみ手動アノテーションを応用して,効果的なサルエント物体検出モデルを学習することを提案する。
我々は,このタスクを,少額の有能な物体検出とみなし,少数のコストの学習シナリオを促進するために,APL(Adversarialpaced Learning)ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-05T14:15:49Z) - Zero-shot Relation Classification from Side Information [5.609443065827996]
ゼロショット学習アプローチは、人間が事前知識のない新しい概念を学習し、認識する方法を模倣する。
ZSLRCは、重み付けされた側(補助的)情報を利用するように修正された先進的なネットワークを使用する。
ZSLRCは、教師付き学習、少数ショット学習、ゼロショット学習タスクにおいて最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-11-13T20:57:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。