論文の概要: HOPE: A Memory-Based and Composition-Aware Framework for Zero-Shot Learning with Hopfield Network and Soft Mixture of Experts
- arxiv url: http://arxiv.org/abs/2311.14747v2
- Date: Mon, 10 Mar 2025 09:42:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:42:06.281658
- Title: HOPE: A Memory-Based and Composition-Aware Framework for Zero-Shot Learning with Hopfield Network and Soft Mixture of Experts
- Title(参考訳): HOPE: Hopfield NetworkとSoft Mixture of Expertsによるゼロショット学習のためのメモリベース・コンポジション・アウェアフレームワーク
- Authors: Do Huu Dat, Po Yuan Mao, Tien Hoang Nguyen, Wray Buntine, Mohammed Bennamoun,
- Abstract要約: そこで本稿では,Modern UnderlineHopfield NetworkとMixture Underlineof Underlineof Underline Exunderlineperts (HOPE)を組み合わせた新しいフレームワークを提案する。
提案手法は,MIT-StatesやUT-Zapposなど,いくつかのベンチマークにおいてSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 24.169380336136506
- License:
- Abstract: Compositional Zero-Shot Learning (CZSL) has emerged as an essential paradigm in machine learning, aiming to overcome the constraints of traditional zero-shot learning by incorporating compositional thinking into its methodology. Conventional zero-shot learning has difficulty managing unfamiliar combinations of seen and unseen classes because it depends on pre-defined class embeddings. In contrast, Compositional Zero-Shot Learning leverages the inherent hierarchies and structural connections among classes, creating new class representations by combining attributes, components, or other semantic elements. In our paper, we propose a novel framework that for the first time combines the Modern \underline{H}opfield Network with a Mixture \underline{o}f \underline{E}x\underline{p}erts (HOPE) to classify the compositions of previously unseen objects. Specifically, the Modern Hopfield Network creates a memory that stores label prototypes and identifies relevant labels for a given input image. Subsequently, the Mixture of Expert models integrates the image with the appropriate prototype to produce the final composition classification. Our approach achieves SOTA performance on several benchmarks, including MIT-States and UT-Zappos. We also examine how each component contributes to improved generalization.
- Abstract(参考訳): 合成ゼロショット学習(CZSL)は、合成思考を方法論に組み込むことで、従来のゼロショット学習の制約を克服することを目的として、機械学習において不可欠なパラダイムとして登場した。
従来のゼロショット学習は、事前に定義されたクラス埋め込みに依存するため、見知らぬクラスと見えないクラスの不慣れな組み合わせを管理するのが困難である。
これとは対照的に、コンポジションゼロショット学習はクラス間の固有の階層と構造的接続を活用し、属性やコンポーネント、その他の意味要素を組み合わせることで、新しいクラス表現を生成する。
本稿では,Modern \underline{H}opfield Network と Mixture \underline{o}f \underline{E}x\underline{p}erts (HOPE) を組み合わせた新しいフレームワークを提案する。
具体的には、Modern Hopfield Networkは、ラベルのプロトタイプを格納し、入力画像に関連するラベルを識別するメモリを作成する。
その後、Mixture of Expertモデルはイメージを適切なプロトタイプと統合し、最終的な構成分類を生成する。
提案手法は,MIT-StatesやUT-Zapposなど,いくつかのベンチマークにおいてSOTA性能を実現する。
また、各成分が一般化にどのように貢献するかについても検討する。
関連論文リスト
- Learning Clustering-based Prototypes for Compositional Zero-shot Learning [56.57299428499455]
ClusProは、コンポジションゼロショット学習のための堅牢なクラスタリングベースのプロトタイプマイニングフレームワークである。
それは、多様化されたプロトタイプの集合を通じて、プリミティブの概念的境界を定義する。
ClusProは、学習可能なパラメータを追加することなく、非パラメトリックな方法でプロトタイプクラスタリングを効率的に実行する。
論文 参考訳(メタデータ) (2025-02-10T14:20:01Z) - IterComp: Iterative Composition-Aware Feedback Learning from Model Gallery for Text-to-Image Generation [70.8833857249951]
IterCompは、複数のモデルから合成対応モデルの好みを集約する新しいフレームワークである。
クローズドループ方式で構成性を向上する反復的フィードバック学習法を提案する。
IterCompは、拡散モデルと合成生成のための報酬フィードバック学習の新たな研究の道を開く。
論文 参考訳(メタデータ) (2024-10-09T17:59:13Z) - Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - CSCNET: Class-Specified Cascaded Network for Compositional Zero-Shot
Learning [62.090051975043544]
属性とオブジェクト(A-O)の絡み合いは、合成ゼロショット学習(CZSL)の基本的かつ重要な問題である
CZSL(Class-specified Cascaded Network, CSCNet)のための新しいA-O不整合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T14:18:41Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Mutual Balancing in State-Object Components for Compositional Zero-Shot
Learning [0.0]
合成ゼロショット学習(CZSL)は、目に見えない状態や物体から未知の合成を認識することを目的としている。
そこで本研究では,CZSLのSTate-Object Components (MUST) におけるMUtual Balanceと呼ばれる新しい手法を提案する。
我々のアプローチは、MIT-States、UT-Zappos、C-GQAといった基本的なCZSLフレームワークと組み合わせることで、最先端のCZSLよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-11-19T10:21:22Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z) - COMPAS: Representation Learning with Compositional Part Sharing for
Few-Shot Classification [10.718573053194742]
画像分類は2つの連続的な学習プロセスから構成される。
人間におけるオブジェクトの合成表現にインスパイアされた私たちは、オブジェクトを一組のパーツとして明示的に表現するニューラルネットワークアーキテクチャをトレーニングします。
我々は,miniImageNet, tieredImageNet, CIFAR-FS, FC100 を用いた数ショット分類のための合成学習フレームワークの価値を実証した。
論文 参考訳(メタデータ) (2021-01-28T09:16:21Z) - Compositional Embeddings for Multi-Label One-Shot Learning [30.748605784254355]
単発学習の設定において,入力画像あたりの1つのクラスだけでなく,一連のクラスを推論する合成埋め込みフレームワークを提案する。
OmniGlot、Open Images、COCOデータセットの実験は、提案された合成埋め込みモデルが既存の埋め込み方法より優れていることを示している。
論文 参考訳(メタデータ) (2020-02-11T03:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。