論文の概要: Wandering Within a World: Online Contextualized Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2007.04546v3
- Date: Thu, 22 Apr 2021 20:15:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:03:52.729373
- Title: Wandering Within a World: Online Contextualized Few-Shot Learning
- Title(参考訳): 世界のひらめき:オンラインコンテクスト化されたFew-Shot学習
- Authors: Mengye Ren, Michael L. Iuzzolino, Michael C. Mozer, Richard S. Zemel
- Abstract要約: 我々は、数ショット学習の標準フレームワークをオンライン環境に拡張することで、一般的な人間と機械学習環境のギャップを埋めることを目指している。
本研究では,世界中をさまようエージェントの視覚体験を模倣した大規模な屋内画像に基づく,新しいプロトタイプによる数ショット学習を提案する。
- 参考スコア(独自算出の注目度): 62.28521610606054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We aim to bridge the gap between typical human and machine-learning
environments by extending the standard framework of few-shot learning to an
online, continual setting. In this setting, episodes do not have separate
training and testing phases, and instead models are evaluated online while
learning novel classes. As in the real world, where the presence of
spatiotemporal context helps us retrieve learned skills in the past, our online
few-shot learning setting also features an underlying context that changes
throughout time. Object classes are correlated within a context and inferring
the correct context can lead to better performance. Building upon this setting,
we propose a new few-shot learning dataset based on large scale indoor imagery
that mimics the visual experience of an agent wandering within a world.
Furthermore, we convert popular few-shot learning approaches into online
versions and we also propose a new contextual prototypical memory model that
can make use of spatiotemporal contextual information from the recent past.
- Abstract(参考訳): 我々は,人間と機械学習環境のギャップを,オンラインの連続的な環境に限定学習の標準フレームワークを拡張することで橋渡しすることを目指している。
この設定では、エピソードは個別のトレーニングとテストフェーズを持たず、代わりに新しいクラスを学習しながらオンラインで評価される。
時空間の存在が過去の学習スキルの獲得に役立っている現実の世界のように、オンラインのいくつかのショット学習環境は、時間とともに変化する基盤となるコンテキストも備えています。
オブジェクトクラスはコンテキスト内で相関しており、正しいコンテキストを推測するとパフォーマンスが向上します。
そこで本研究では,大規模な屋内画像に基づく数発の学習データセットを提案し,世界中をさまようエージェントの視覚的体験を模倣する。
さらに,人気のあるマイナショット学習手法をオンライン版に変換するとともに,過去からの時空間的文脈情報を活用した新しい文脈型記憶モデルを提案する。
関連論文リスト
- Improving In-Context Learning in Diffusion Models with Visual
Context-Modulated Prompts [83.03471704115786]
本研究では,改良型プロンプト拡散(iPromptDiff)を紹介する。
iPromptDiffは、視覚コンテキストを埋め込みベクトルに変換するエンドツーエンドのトレーニングされた視覚エンコーダを統合する。
拡散に基づく視覚基盤モデルにおいて,この視覚的文脈変調テキストガイダンスと標準制御ネット構造を組み込んだ場合,多種多様な学習課題における多目的性と堅牢性を示すことを示す。
論文 参考訳(メタデータ) (2023-12-03T14:15:52Z) - Learning to Model the World with Language [100.76069091703505]
人間と対話し、世界で行動するためには、エージェントは人々が使用する言語の範囲を理解し、それを視覚の世界に関連付ける必要がある。
私たちのキーとなるアイデアは、エージェントが将来を予測するのに役立つ信号として、このような多様な言語を解釈すべきである、ということです。
我々は、将来のテキストや画像表現を予測するマルチモーダル世界モデルを学ぶエージェントであるDynalangでこれをインスタンス化する。
論文 参考訳(メタデータ) (2023-07-31T17:57:49Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - FILM: How can Few-Shot Image Classification Benefit from Pre-Trained
Language Models? [14.582209994281374]
少数のサンプルしか持たない新しいクラスに一般化可能なモデルをトレーニングすることを目的としている。
コントラスト学習に基づく事前学習言語モデルを用いた新しい数発学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-09T08:07:43Z) - Lifelong Wandering: A realistic few-shot online continual learning
setting [23.134299907227796]
オンラインの数ショット学習では、新しいクラスを学習しながら、データストリーム上でモデルをトレーニングし、評価する環境が記述されている。
この環境での先行研究は、単一の屋内環境からなるデータストリームから学習する際、インスタンス分類において非常に有望な性能を発揮する一方で、複数の屋内環境におけるオブジェクト分類を検討するために、この設定を拡張することを提案する。
本研究では,いくつかの既存手法と適応ベースラインのベンチマークを行い,破滅的な忘れ込みとオンラインパフォーマンスのトレードオフが存在することを示す。
論文 参考訳(メタデータ) (2022-06-16T05:39:08Z) - Meta-Learning and Self-Supervised Pretraining for Real World Image
Translation [5.469808405577674]
我々は,新しいマルチタスク・マルチショット画像生成ベンチマークを定式化するために,画像から画像への変換問題について検討する。
軽微な問題に対する基本点をいくつか提示し、異なるアプローチ間のトレードオフについて議論する。
論文 参考訳(メタデータ) (2021-12-22T14:48:22Z) - Deploying Lifelong Open-Domain Dialogue Learning [48.12600947313494]
本研究では,オープンドメインファンタジーの世界にある学習エージェントと人間プレイヤーが会話するロールプレイングゲームを構築し,展開する。
自動メトリクスとオンラインエンゲージメントスコアから,ゲーム中の人間との会話に関するモデルをトレーニングすることで,モデルを段階的に改善することを示す。
この学習は、実際のユーザとの会話に適用した場合のクラウドソースデータよりも効率的であり、収集するコストもはるかに安い。
論文 参考訳(メタデータ) (2020-08-18T17:57:26Z) - Insights from the Future for Continual Learning [45.58831178202245]
我々は,授業データに先立って,授業に関する既存の情報を組み込むための,新しい実験環境である先進的連続学習を提案する。
私たちの設定には、トレーニングサンプルがまったくない将来のクラスが追加されます。
損失を慎重に調整した表現空間の生成モデルにより、将来のクラスからの洞察を利用して過去のクラスと現在のクラスの空間配置を制約することができる。
論文 参考訳(メタデータ) (2020-06-24T14:05:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。