論文の概要: HOMOE: A Memory-Based and Composition-Aware Framework for Zero-Shot
Learning with Hopfield Network and Soft Mixture of Experts
- arxiv url: http://arxiv.org/abs/2311.14747v1
- Date: Thu, 23 Nov 2023 07:32:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 09:49:36.449360
- Title: HOMOE: A Memory-Based and Composition-Aware Framework for Zero-Shot
Learning with Hopfield Network and Soft Mixture of Experts
- Title(参考訳): homoe:hopfield networkとソフトミキシングによるゼロショット学習のためのメモリベースおよびコンポジションアウェアフレームワーク
- Authors: Do Huu Dat, Po Yuan Mao, Tien Hoang Nguyen, Wray Buntine, Mohammed
Bennamoun
- Abstract要約: そこで本稿では,現代ホップフィールドネットワークとエキスパートの混合を併用した新しいフレームワークを提案し,これまでに見つからなかったオブジェクトの合成を分類する。
提案手法は,MIT-StatesやUT-Zapposなど,いくつかのベンチマークにおいてSOTA性能を実現する。
- 参考スコア(独自算出の注目度): 25.930021907054797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Compositional Zero-Shot Learning (CZSL) has emerged as an essential paradigm
in machine learning, aiming to overcome the constraints of traditional
zero-shot learning by incorporating compositional thinking into its
methodology. Conventional zero-shot learning has difficulty managing unfamiliar
combinations of seen and unseen classes because it depends on pre-defined class
embeddings. In contrast, Compositional Zero-Shot Learning uses the inherent
hierarchies and structural connections among classes, creating new class
representations by combining attributes, components, or other semantic
elements. In our paper, we propose a novel framework that for the first time
combines the Modern Hopfield Network with a Mixture of Experts (HOMOE) to
classify the compositions of previously unseen objects. Specifically, the
Modern Hopfield Network creates a memory that stores label prototypes and
identifies relevant labels for a given input image. Following this, the Mixture
of Expert models integrates the image with the fitting prototype to produce the
final composition classification. Our approach achieves SOTA performance on
several benchmarks, including MIT-States and UT-Zappos. We also examine how
each component contributes to improved generalization.
- Abstract(参考訳): 合成ゼロショット学習(CZSL)は、合成思考を方法論に組み込むことで、従来のゼロショット学習の制約を克服することを目的として、機械学習において不可欠なパラダイムとして登場した。
従来のゼロショット学習は、事前定義されたクラス埋め込みに依存するため、見知らぬクラスと見知らぬクラスの組み合わせを管理するのが困難である。
対照的に、コンポジションゼロショット学習はクラス間の固有の階層と構造的接続を使用し、属性やコンポーネント、その他の意味要素を組み合わせて新しいクラス表現を作成する。
本稿では,現代ホップフィールドネットワークとMixture of Experts(HOMOE)を組み合わせた新しいフレームワークを提案する。
具体的には、Modern Hopfield Networkは、ラベルのプロトタイプを格納し、入力画像に関連するラベルを識別するメモリを作成する。
その後、Mixture of Expertモデルでは、画像とフィッティングプロトタイプを統合して、最終的な構成分類を生成する。
提案手法は,MIT-StatesやUT-Zapposなど,いくつかのベンチマークにおいてSOTA性能を実現する。
また,各コンポーネントが一般化にどのように寄与するかについても検討した。
関連論文リスト
- Meta-Exploiting Frequency Prior for Cross-Domain Few-Shot Learning [86.99944014645322]
クロスドメインなFew-Shot学習のための新しいフレームワーク,Meta-Exploiting Frequency Priorを導入する。
各クエリ画像を高周波および低周波成分に分解し,特徴埋め込みネットワークに並列に組み込む。
本フレームワークは、複数のドメイン間数ショット学習ベンチマークにおいて、最先端の新たな結果を確立する。
論文 参考訳(メタデータ) (2024-11-03T04:02:35Z) - IterComp: Iterative Composition-Aware Feedback Learning from Model Gallery for Text-to-Image Generation [70.8833857249951]
IterCompは、複数のモデルから合成対応モデルの好みを集約する新しいフレームワークである。
クローズドループ方式で構成性を向上する反復的フィードバック学習法を提案する。
IterCompは、拡散モデルと合成生成のための報酬フィードバック学習の新たな研究の道を開く。
論文 参考訳(メタデータ) (2024-10-09T17:59:13Z) - Cross-composition Feature Disentanglement for Compositional Zero-shot Learning [49.919635694894204]
合成ゼロショット学習(CZSL)において、プリミティブ(属性とオブジェクト)の視覚的特徴の歪みは例外的な結果を示した。
本稿では,複数のプリミティブ・シェアリング・コンポジションを入力とし,これらのコンポジションにまたがって一般化されるような不整合プリミティブ・コンポジションを制約するクロス・コンポジション・コンストラクション・ディエンタングルメントの解を提案する。
論文 参考訳(メタデータ) (2024-08-19T08:23:09Z) - CSCNET: Class-Specified Cascaded Network for Compositional Zero-Shot
Learning [62.090051975043544]
属性とオブジェクト(A-O)の絡み合いは、合成ゼロショット学習(CZSL)の基本的かつ重要な問題である
CZSL(Class-specified Cascaded Network, CSCNet)のための新しいA-O不整合フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-09T14:18:41Z) - Hierarchical Visual Primitive Experts for Compositional Zero-Shot
Learning [52.506434446439776]
合成ゼロショット学習(CZSL)は、既知のプリミティブ(属性とオブジェクト)の事前知識で構成を認識することを目的としている。
このような問題に対処するために,コンポジショントランスフォーマー(CoT)と呼ばれるシンプルでスケーラブルなフレームワークを提案する。
提案手法は,MIT-States,C-GQA,VAW-CZSLなど,いくつかのベンチマークでSoTA性能を実現する。
論文 参考訳(メタデータ) (2023-08-08T03:24:21Z) - Mutual Balancing in State-Object Components for Compositional Zero-Shot
Learning [0.0]
合成ゼロショット学習(CZSL)は、目に見えない状態や物体から未知の合成を認識することを目的としている。
そこで本研究では,CZSLのSTate-Object Components (MUST) におけるMUtual Balanceと呼ばれる新しい手法を提案する。
我々のアプローチは、MIT-States、UT-Zappos、C-GQAといった基本的なCZSLフレームワークと組み合わせることで、最先端のCZSLよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-11-19T10:21:22Z) - KG-SP: Knowledge Guided Simple Primitives for Open World Compositional
Zero-Shot Learning [52.422873819371276]
オープンワールドコンポジションゼロショット学習(OW-CZSL)の目的は、画像中の状態とオブジェクトの合成を認識することである。
ここでは、単純なCZSLベースラインを再検討し、プリミティブ、すなわち状態とオブジェクトを独立して予測する。
出力空間から不可能な構成を除去するために, 外部知識を用いて各構成の有効性を推定する。
我々のモデルであるKG-SPはOW-CZSLとpCZSLの両方で技術の状態を達成する。
論文 参考訳(メタデータ) (2022-05-13T17:18:15Z) - COMPAS: Representation Learning with Compositional Part Sharing for
Few-Shot Classification [10.718573053194742]
画像分類は2つの連続的な学習プロセスから構成される。
人間におけるオブジェクトの合成表現にインスパイアされた私たちは、オブジェクトを一組のパーツとして明示的に表現するニューラルネットワークアーキテクチャをトレーニングします。
我々は,miniImageNet, tieredImageNet, CIFAR-FS, FC100 を用いた数ショット分類のための合成学習フレームワークの価値を実証した。
論文 参考訳(メタデータ) (2021-01-28T09:16:21Z) - Compositional Embeddings for Multi-Label One-Shot Learning [30.748605784254355]
単発学習の設定において,入力画像あたりの1つのクラスだけでなく,一連のクラスを推論する合成埋め込みフレームワークを提案する。
OmniGlot、Open Images、COCOデータセットの実験は、提案された合成埋め込みモデルが既存の埋め込み方法より優れていることを示している。
論文 参考訳(メタデータ) (2020-02-11T03:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。