論文の概要: Contextualizing Meta-Learning via Learning to Decompose
- arxiv url: http://arxiv.org/abs/2106.08112v2
- Date: Mon, 18 Sep 2023 05:57:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 02:22:04.066795
- Title: Contextualizing Meta-Learning via Learning to Decompose
- Title(参考訳): 学習によるメタラーニングの文脈化
- Authors: Han-Jia Ye, Da-Wei Zhou, Lanqing Hong, Zhenguo Li, Xiu-Shen Wei,
De-Chuan Zhan
- Abstract要約: 本稿では,メタ学習型サポート・ツー・ターゲット戦略の文脈化を図るために,ネットワーク(LeadNet)を分解する学習を提案する。
LeadNetは、コンテキスト間の比較をポリセムの埋め込みに組み込むことで、右に関連付けられた戦略を自動的に選択することを学ぶ。
- 参考スコア(独自算出の注目度): 125.76658595408607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meta-learning has emerged as an efficient approach for constructing target
models based on support sets. For example, the meta-learned embeddings enable
the construction of target nearest-neighbor classifiers for specific tasks by
pulling instances closer to their same-class neighbors. However, a single
instance can be annotated from various latent attributes, making visually
similar instances inside or across support sets have different labels and
diverse relationships with others. Consequently, a uniform meta-learned
strategy for inferring the target model from the support set fails to capture
the instance-wise ambiguous similarity. To this end, we propose Learning to
Decompose Network (LeadNet) to contextualize the meta-learned
``support-to-target'' strategy, leveraging the context of instances with one or
mixed latent attributes in a support set. In particular, the comparison
relationship between instances is decomposed w.r.t. multiple embedding spaces.
LeadNet learns to automatically select the strategy associated with the right
attribute via incorporating the change of comparison across contexts} with
polysemous embeddings. We demonstrate the superiority of LeadNet in various
applications, including exploring multiple views of confusing data,
out-of-distribution recognition, and few-shot image classification.
- Abstract(参考訳): メタラーニングは、サポートセットに基づいたターゲットモデルを構築するための効率的なアプローチとして登場した。
例えば、メタ学習埋め込みは、特定のタスクに対して、インスタンスを同じクラスの隣人に近づけることで、ターゲットのneighbor分類器の構築を可能にする。
しかし、1つのインスタンスは様々な潜在属性から注釈を付けることができ、サポートセット内またはサポートセット全体で視覚的に類似したインスタンスは異なるラベルを持ち、他のインスタンスと多様な関係を持つ。
従って、サポートセットからターゲットモデルを推論する一様メタ学習戦略は、インスタンス毎のあいまいな類似性を捉えることができない。
この目的のために、我々はLearning to Decompose Network (LeadNet) を提案し、メタ学習した `` Support-to-target'' 戦略をコンテキスト化し、インスタンスのコンテキストを1つまたは混合の潜在属性で活用する。
特に、インスタンス間の比較関係は、w.r.t.多重埋め込み空間で分解される。
LeadNetは、コンテキスト間の比較の変更を多文埋め込みに組み込むことで、適切な属性に関連する戦略を自動的に選択することを学ぶ。
本研究では,様々なアプリケーションにおいてリードネットの優位性を実証し,混乱したデータの複数ビューの探索,分散認識,少数ショット画像の分類などを行う。
関連論文リスト
- Break-A-Scene: Extracting Multiple Concepts from a Single Image [53.869755105136385]
テキストシーン分解の課題を紹介する。
本稿では,対象概念の存在を示すマスクを用いた入力画像の拡張を提案する。
次に、新しい2段階のカスタマイズプロセスを示す。
論文 参考訳(メタデータ) (2023-05-25T17:59:04Z) - MaMMUT: A Simple Architecture for Joint Learning for MultiModal Tasks [59.09343552273045]
本稿では,これらの異なる視覚言語タスクの協調学習に驚くほど有効であるマルチモーダルタスクのためのデコーダのみのモデルを提案する。
これらの多様な目的の合同学習は単純で効果的であり、これらのタスク間でのモデルの重量共有を最大化することを示した。
我々のモデルは,画像テキストとテキスト画像検索,ビデオ質問応答,オープン語彙検出タスクにおける技術の現状を達成し,より大きく,より広範囲に訓練された基礎モデルよりも優れている。
論文 参考訳(メタデータ) (2023-03-29T16:42:30Z) - DICNet: Deep Instance-Level Contrastive Network for Double Incomplete
Multi-View Multi-Label Classification [20.892833511657166]
実世界におけるマルチビューマルチラベルデータは、データ収集や手動アノテーションの不確実性のため、一般的に不完全である。
本稿では,DICNetという深層インスタンスレベルのコントラストネットワークを提案し,二重不完全なマルチラベル分類問題に対処する。
我々のDICNetは、マルチビュー多ラベルデータの一貫した識別的表現を捉え、欠落したビューと欠落したラベルの負の影響を避けることに長けている。
論文 参考訳(メタデータ) (2023-03-15T04:24:01Z) - Universal Instance Perception as Object Discovery and Retrieval [90.96031157557806]
UNIは多様なインスタンス認識タスクを統一されたオブジェクト発見・検索パラダイムに再構成する。
入力プロンプトを変更するだけで、さまざまな種類のオブジェクトを柔軟に知覚することができる。
UNIは10のインスタンスレベルのタスクから20の挑戦的なベンチマークで優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2023-03-12T14:28:24Z) - Multi-Modal Few-Shot Object Detection with Meta-Learning-Based
Cross-Modal Prompting [77.69172089359606]
本稿では,マルチモーダルな複数ショットオブジェクト検出(FSOD)について,少数ショット視覚例とクラスセマンティック情報の両方を用いて検討する。
我々のアプローチは、(メトリックベース)メタラーニングとプロンプトベースラーニングの高レベルな概念的類似性によって動機付けられている。
提案するマルチモーダルFSODモデルを,複数の複数ショットオブジェクト検出ベンチマークで総合的に評価し,有望な結果を得た。
論文 参考訳(メタデータ) (2022-04-16T16:45:06Z) - Generative Modeling for Multi-task Visual Learning [40.96212750592383]
様々な視覚的認知タスクにおいて有用な共有生成モデルを学ぶという,新しい問題を考える。
本稿では,識別型マルチタスクネットワークと生成ネットワークを結合して,汎用的なマルチタスク指向生成モデリングフレームワークを提案する。
我々のフレームワークは、最先端のマルチタスクアプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2021-06-25T03:42:59Z) - Multimodal Clustering Networks for Self-supervised Learning from
Unlabeled Videos [69.61522804742427]
本稿では,共通のマルチモーダル埋め込み空間を学習する自己監督型トレーニングフレームワークを提案する。
インスタンスレベルのコントラスト学習の概念をマルチモーダルクラスタリングステップで拡張し,モダリティ間の意味的類似性を捉える。
結果として得られる埋め込みスペースは、見えないデータセットや異なるドメインからでも、すべてのモダリティにわたるサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2021-04-26T15:55:01Z) - New Ideas and Trends in Deep Multimodal Content Understanding: A Review [24.576001583494445]
本調査の焦点は、画像とテキストの2つのモーダルな深層学習の分析である。
本稿では, 自動エンコーダ, 生成逆数ネットなどを含む最近の多モード深層モデルと構造について検討する。
論文 参考訳(メタデータ) (2020-10-16T06:50:54Z) - Generalized Multi-view Shared Subspace Learning using View Bootstrapping [43.027427742165095]
マルチビュー学習の主な目的は、下流学習タスクを改善するために、オブジェクト/イベントのクラスの複数の並列ビューに共通する情報をモデル化することである。
本稿では,多視点相関に基づくニューラルな手法を提案する。
音声認識、3次元オブジェクト分類、ポーズ不変顔認識の実験は、多数のビューをモデル化するためのビューブートストラップの堅牢性を示している。
論文 参考訳(メタデータ) (2020-05-12T20:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。