論文の概要: On Parameter Tuning in Meta-learning for Computer Vision
- arxiv url: http://arxiv.org/abs/2003.00837v1
- Date: Tue, 11 Feb 2020 15:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 01:46:26.648101
- Title: On Parameter Tuning in Meta-learning for Computer Vision
- Title(参考訳): コンピュータビジョンのためのメタラーニングにおけるパラメータチューニングについて
- Authors: Farid Ghareh Mohammadi, M. Hadi Amini, and Hamid R. Arabnia
- Abstract要約: 本稿では,学習情報に制限のあるデータセットの未確認カテゴリに対するマージ認識について検討する。
この目的を達成するためにゼロショット学習(ZSL)アルゴリズムをデプロイする。
また,パラメータチューニングが意味的オートエンコーダ(SAE)の性能に及ぼす影響についても検討する。
- 参考スコア(独自算出の注目度): 2.3513645401551333
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to learn plays a pivotal role in meta-learning (MTL) to obtain an
optimal learning model. In this paper, we investigate mage recognition for
unseen categories of a given dataset with limited training information. We
deploy a zero-shot learning (ZSL) algorithm to achieve this goal. We also
explore the effect of parameter tuning on performance of semantic auto-encoder
(SAE). We further address the parameter tuning problem for meta-learning,
especially focusing on zero-shot learning. By combining different embedded
parameters, we improved the accuracy of tuned-SAE. Advantages and disadvantages
of parameter tuning and its application in image classification are also
explored.
- Abstract(参考訳): 学習学習はメタラーニング(MTL)において重要な役割を担い、最適な学習モデルを得る。
本稿では,訓練情報に制限のあるデータセットの未認識カテゴリに対するmage認識について検討する。
この目的を達成するためにゼロショット学習(ZSL)アルゴリズムをデプロイする。
また,パラメータチューニングが意味的オートエンコーダ(SAE)の性能に及ぼす影響についても検討する。
さらに,メタ学習におけるパラメータチューニング問題,特にゼロショット学習に着目する。
組込みパラメータの組み合わせにより,チューニング-SAEの精度が向上した。
パラメータチューニングの利点と欠点とその画像分類への応用についても検討した。
関連論文リスト
- Learn To Learn More Precisely [30.825058308218047]
より正確に学習すること」は、モデルにデータから正確な目標知識を学習させることを目的としている。
学習知識の一貫性を最大化するために,メタ自己蒸留(Meta Self-Distillation:MSD)という,シンプルで効果的なメタ学習フレームワークを提案する。
MSDは、標準シナリオと拡張シナリオの両方において、数ショットの分類タスクにおいて顕著なパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-08-08T17:01:26Z) - Boosting Continual Learning of Vision-Language Models via Mixture-of-Experts Adapters [65.15700861265432]
本稿では,視覚言語モデルを用いた漸進的学習における長期的忘れを緩和するパラメータ効率の連続学習フレームワークを提案する。
提案手法では,Mixture-of-Experts (MoE)アダプタの統合により,事前学習したCLIPモデルの動的拡張を行う。
視覚言語モデルのゼロショット認識能力を維持するために,分布判別オートセレクタを提案する。
論文 参考訳(メタデータ) (2024-03-18T08:00:23Z) - Unsupervised Representation Learning to Aid Semi-Supervised Meta
Learning [16.534014215010757]
トレーニングサンプルの潜在表現を学習するために,一発の教師なしメタラーニングを提案する。
メタラーニングの内ループでは、温度スケールのクロスエントロピー損失を使用し、オーバーフィッティングを防止する。
提案手法はモデル非依存であり, どんなメタ学習モデルでも精度を向上させることができる。
論文 参考訳(メタデータ) (2023-10-19T18:25:22Z) - Seeking Neural Nuggets: Knowledge Transfer in Large Language Models from a Parametric Perspective [106.92016199403042]
パラメトリック・パースペクティブを用いて,大規模モデルから小規模モデルへの知識伝達を実証的に検討する。
感性に基づく手法を用いて、異なる大言語モデル間で知識固有のパラメータを抽出・調整する。
本研究は,パラメトリックな知識伝達の過程に寄与する重要な要因を明らかにする。
論文 参考訳(メタデータ) (2023-10-17T17:58:34Z) - Retrieval-Augmented Meta Learning for Low-Resource Text Classification [22.653220906899612]
検索型メタ学習(RAML)というメタ学習手法を提案する。
推論にはパラメータ化を使用するが、外部コーパスから非パラメトリック知識を取得して推論を行う。
RAMLは、現在のSOTA低リソーステキスト分類モデルよりも大幅に優れている。
論文 参考訳(メタデータ) (2023-09-10T10:05:03Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Dynamic Regret Analysis for Online Meta-Learning [0.0]
オンラインメタ学習フレームワークは、継続的な生涯学習設定のための強力なツールとして生まれてきた。
この定式化には、メタラーナーを学ぶ外部レベルと、タスク固有のモデルを学ぶ内部レベルという2つのレベルが含まれる。
グローバルな予測から環境の変化を扱う動的な後悔という観点から、パフォーマンスを確立します。
本稿では,本分析を1つの設定で実施し,各イテレーションの総数に依存する局所的局所的後悔の対数論的証明を期待する。
論文 参考訳(メタデータ) (2021-09-29T12:12:59Z) - Learning an Explicit Hyperparameter Prediction Function Conditioned on
Tasks [62.63852372239708]
メタ学習は、観察されたタスクから機械学習の学習方法論を学び、新しいクエリタスクに一般化することを目的としている。
我々は、これらの学習手法を、全てのトレーニングタスクで共有される明示的なハイパーパラメータ予測関数の学習として解釈する。
このような設定は、メタ学習方法論が多様なクエリタスクに柔軟に適合できることを保証する。
論文 参考訳(メタデータ) (2021-07-06T04:05:08Z) - Continual Learning via Bit-Level Information Preserving [88.32450740325005]
我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
論文 参考訳(メタデータ) (2021-05-10T15:09:01Z) - One to Many: Adaptive Instrument Segmentation via Meta Learning and
Dynamic Online Adaptation in Robotic Surgical Video [71.43912903508765]
MDALは、ロボット支援手術における機器セグメンテーションのための動的オンライン適応学習スキームです。
ビデオ固有のメタ学習パラダイムを通じて、楽器の一般的な知識と高速適応能力を学ぶ。
2つのデータセットで他の最先端のメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-03-24T05:02:18Z) - A Primal-Dual Subgradient Approachfor Fair Meta Learning [23.65344558042896]
ショットのメタ学習は、その高速適応能力と、未知のタスクへの精度の一般化で有名である。
そこで本研究では,ごく少数の例を用いて,公正な機械学習モデルのトレーニングを学習するPrimal-Dual Meta-learningフレームワーク,すなわちPDFMを提案する。
論文 参考訳(メタデータ) (2020-09-26T19:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。