論文の概要: MetaMIML: Meta Multi-Instance Multi-Label Learning
- arxiv url: http://arxiv.org/abs/2111.04112v1
- Date: Sun, 7 Nov 2021 15:54:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:23:17.896245
- Title: MetaMIML: Meta Multi-Instance Multi-Label Learning
- Title(参考訳): MetaMIML: メタマルチインスタンスマルチラベル学習
- Authors: Yuanlin Yang, Guoxian Yu, Jun Wang, Lei Liu, Carlotta Domeniconi,
Maozu Guo
- Abstract要約: 異なるタイプの相互依存型MIMLオブジェクトをマイニングするためのネットワーク埋め込みとメタラーニングに基づくアプローチを提案する。
ベンチマークデータセットの実験では、MetaMIMLは最先端のアルゴリズムよりも大幅にパフォーマンスが向上している。
- 参考スコア(独自算出の注目度): 27.32606468640938
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Multi-Instance Multi-Label learning (MIML) models complex objects (bags),
each of which is associated with a set of interrelated labels and composed with
a set of instances. Current MIML solutions still focus on a single-type of
objects and assumes an IID distribution of training data. But these objects are
linked with objects of other types, %(i.e., pictures in Facebook link with
various users), which also encode the semantics of target objects. In addition,
they generally need abundant labeled data for training. To effectively mine
interdependent MIML objects of different types, we propose a network embedding
and meta learning based approach (MetaMIML). MetaMIML introduces the context
learner with network embedding to capture semantic information of objects of
different types, and the task learner to extract the meta knowledge for fast
adapting to new tasks. In this way, MetaMIML can naturally deal with MIML
objects at data level improving, but also exploit the power of meta-learning at
the model enhancing. Experiments on benchmark datasets demonstrate that
MetaMIML achieves a significantly better performance than state-of-the-art
algorithms.
- Abstract(参考訳): multi-instance multi-label learning (miml)は複雑なオブジェクト(バッグ)をモデル化する。
現在のMIMLソリューションは依然として単一のタイプのオブジェクトに焦点を当てており、トレーニングデータのID分布を前提としている。
しかし、これらのオブジェクトは%(facebookのさまざまなユーザーとのリンク)という他のタイプのオブジェクトとリンクされ、ターゲットオブジェクトのセマンティクスもエンコードされる。
加えて、トレーニングには豊富なラベル付きデータが必要である。
異なるタイプの相互依存型MIMLオブジェクトを効果的にマイニングするために,ネットワーク埋め込みとメタ学習に基づくアプローチ(MetaMIML)を提案する。
MetaMIMLでは、異なるタイプのオブジェクトのセマンティック情報をキャプチャするためのネットワーク埋め込みによるコンテキスト学習と、新しいタスクに迅速に適応するためのメタ知識を抽出するタスク学習を導入している。
このように、MetaMIMLはデータレベルでMIMLオブジェクトを自然に扱えるだけでなく、モデル拡張時のメタ学習のパワーを活用できる。
ベンチマークデータセットの実験では、MetaMIMLは最先端のアルゴリズムよりも大幅にパフォーマンスが向上している。
関連論文リスト
- ConML: A Universal Meta-Learning Framework with Task-Level Contrastive Learning [49.447777286862994]
ConMLは、さまざまなメタ学習アルゴリズムに適用可能な、普遍的なメタ学習フレームワークである。
我々は、ConMLが最適化ベース、メートル法ベース、およびアモータイズベースメタ学習アルゴリズムとシームレスに統合できることを実証した。
論文 参考訳(メタデータ) (2024-10-08T12:22:10Z) - Matching Anything by Segmenting Anything [109.2507425045143]
我々は、堅牢なインスタンスアソシエーション学習のための新しい手法であるMASAを提案する。
MASAは、徹底的なデータ変換を通じてインスタンスレベルの対応を学習する。
完全アノテートされたドメイン内ビデオシーケンスでトレーニングした最先端の手法よりも,MASAの方が優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2024-06-06T16:20:07Z) - MetaIE: Distilling a Meta Model from LLM for All Kinds of Information Extraction Tasks [40.84745946091173]
我々は「重要な情報」を抽出することを学ぶことで、メタモデルとして小さなLMを構築するための新しいフレームワークであるMetaIEを提案する。
特にMetaIEはラベル・ツー・スパン方式に従ってLDMからシンボル蒸留により小型のLMを得る。
本研究では,言語モデルの事前学習データセットから文を抽出し,蒸留データセットを構築する。
数ショットの適応設定でメタモデルを評価する。
論文 参考訳(メタデータ) (2024-03-30T19:43:45Z) - Many or Few Samples? Comparing Transfer, Contrastive and Meta-Learning
in Encrypted Traffic Classification [68.19713459228369]
我々は、トランスファーラーニング、メタラーニング、コントラストラーニングを、参照機械学習(ML)ツリーベースおよびモノリシックDLモデルと比較する。
i) 大規模なデータセットを用いて,より一般的な表現を得られること,(ii) コントラスト学習が最良の手法であることを示している。
MLツリーベースでは大きなタスクは処理できないが、学習した表現を再利用することで、小さなタスクにも適合するが、DLメソッドはツリーベースモデルのパフォーマンスにも到達している。
論文 参考訳(メタデータ) (2023-05-21T11:20:49Z) - Graph based Label Enhancement for Multi-instance Multi-label learning [20.178466198202376]
マルチインスタンス・マルチラベル(MIML)学習は多くの領域で広く適用されている。
本稿では,グラフラベルの強化,すなわちGLEMIMLに基づく新しいMIMLフレームワークを提案し,MIMLの分類性能を向上させる。
論文 参考訳(メタデータ) (2023-04-21T02:24:49Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Meta-Learning with Fewer Tasks through Task Interpolation [67.03769747726666]
現在のメタ学習アルゴリズムは多数のメタトレーニングタスクを必要としており、実際のシナリオではアクセスできない可能性がある。
タスクグラデーションを用いたメタラーニング(MLTI)により,タスクのペアをランダムにサンプリングし,対応する特徴やラベルを補間することにより,タスクを効果的に生成する。
実証的な実験では,提案する汎用MLTIフレームワークが代表的なメタ学習アルゴリズムと互換性があり,他の最先端戦略を一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-04T20:15:34Z) - A Nested Bi-level Optimization Framework for Robust Few Shot Learning [10.147225934340877]
NestedMAMLはトレーニングタスクやインスタンスに重みを割り当てることを学ぶ。
合成および実世界のデータセットの実験では、NestedMAMLは「不要な」タスクやインスタンスの効果を効率的に緩和している。
論文 参考訳(メタデータ) (2020-11-13T06:41:22Z) - MetaMix: Improved Meta-Learning with Interpolation-based Consistency
Regularization [14.531741503372764]
バックボーンモデルを正規化するためのMetaMixという手法を提案する。
各エピソード内で仮想フィーチャとターゲットのペアを生成し、バックボーンモデルを標準化する。
任意のMAMLベースのアルゴリズムと統合でき、新しいタスクをより一般化した決定境界を学ぶことができる。
論文 参考訳(メタデータ) (2020-09-29T02:44:13Z) - Meta-Baseline: Exploring Simple Meta-Learning for Few-Shot Learning [79.25478727351604]
評価基準に基づいて,分類済みモデル全体に対するメタラーニング(メタラーニング)を提案する。
我々は,この単純な手法が標準ベンチマークにおける最先端手法との競合性能を達成するのを観察する。
論文 参考訳(メタデータ) (2020-03-09T20:06:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。