論文の概要: Low-shot Object Learning with Mutual Exclusivity Bias
- arxiv url: http://arxiv.org/abs/2312.03533v1
- Date: Wed, 6 Dec 2023 14:54:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-07 14:33:52.084780
- Title: Low-shot Object Learning with Mutual Exclusivity Bias
- Title(参考訳): 相互排他バイアスを用いた低ショット物体学習
- Authors: Anh Thai, Ahmad Humayun, Stefan Stojanov, Zixuan Huang, Bikram Boote,
James M. Rehg
- Abstract要約: 本稿では,相互排他バイアスの計算フレーミングであるLSME(Low-shot Object Learning with Mutual Exclusivity Bias)を紹介する。
我々は、MLコミュニティがこの挑戦的な学習課題に対処できるように、新しいデータセット、包括的なベースライン、最先端の手法を提供する。
- 参考スコア(独自算出の注目度): 27.67152913041082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces Low-shot Object Learning with Mutual Exclusivity Bias
(LSME), the first computational framing of mutual exclusivity bias, a
phenomenon commonly observed in infants during word learning. We provide a
novel dataset, comprehensive baselines, and a state-of-the-art method to enable
the ML community to tackle this challenging learning task. The goal of LSME is
to analyze an RGB image of a scene containing multiple objects and correctly
associate a previously-unknown object instance with a provided category label.
This association is then used to perform low-shot learning to test category
generalization. We provide a data generation pipeline for the LSME problem and
conduct a thorough analysis of the factors that contribute to its difficulty.
Additionally, we evaluate the performance of multiple baselines, including
state-of-the-art foundation models. Finally, we present a baseline approach
that outperforms state-of-the-art models in terms of low-shot accuracy.
- Abstract(参考訳): 本稿では,幼児の単語学習でよく見られる現象である,相互排他バイアス(lsme)を用いた低ショット物体学習について述べる。
我々は、MLコミュニティがこの挑戦的な学習課題に対処できるように、新しいデータセット、包括的なベースライン、最先端の手法を提供する。
lsmeの目標は、複数のオブジェクトを含むシーンのrgbイメージを分析し、既知のオブジェクトインスタンスと提供されたカテゴリラベルを正しく関連付けることである。
このアソシエーションは、カテゴリの一般化をテストするためにローショット学習を行うために使用される。
我々はLSME問題のためのデータ生成パイプラインを提供し、その難しさに寄与する要因を徹底的に分析する。
さらに,最先端基礎モデルを含む複数のベースラインの性能評価を行った。
最後に,低ショット精度で最先端モデルより優れたベースライン手法を提案する。
関連論文リスト
- Explore In-Context Segmentation via Latent Diffusion Models [132.26274147026854]
潜在拡散モデル(LDM)は、文脈内セグメンテーションに有効な最小限のモデルである。
画像とビデオの両方のデータセットを含む、新しい、公正なコンテキスト内セグメンテーションベンチマークを構築します。
論文 参考訳(メタデータ) (2024-03-14T17:52:31Z) - One-Shot Open Affordance Learning with Foundation Models [54.15857111929812]
私たちは、モデルがベースオブジェクトカテゴリ毎に1つの例でトレーニングされる、ワンショットのオープンアフォーダンスラーニング(OOAL)を紹介します。
本稿では,視覚的特徴と手頃なテキスト埋め込みとの整合性を高める,シンプルで効果的な設計の視覚言語フレームワークを提案する。
2つのアベイランスセグメンテーションのベンチマーク実験により、提案手法はトレーニングデータの1%未満で最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-29T16:23:06Z) - Continual Contrastive Finetuning Improves Low-Resource Relation
Extraction [34.76128090845668]
関係抽出は低リソースのシナリオやドメインでは特に困難である。
近年の文献は自己教師型学習によって低リソースREに取り組みつつある。
コントラスト学習の一貫した目的を用いたREモデルの事前学習と微調整を提案する。
論文 参考訳(メタデータ) (2022-12-21T07:30:22Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - TISE: A Toolbox for Text-to-Image Synthesis Evaluation [9.092600296992925]
単目的と多目的のテキスト・ツー・イメージ合成のための最先端手法の研究を行う。
これらの手法を評価するための共通フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-02T16:39:35Z) - Salient Objects in Clutter [130.63976772770368]
本稿では,既存の正当性オブジェクト検出(SOD)データセットの重大な設計バイアスを特定し,対処する。
この設計バイアスは、既存のデータセットで評価した場合、最先端のSODモデルのパフォーマンスの飽和につながった。
我々は,新しい高品質データセットを提案し,前回のsaliencyベンチマークを更新する。
論文 参考訳(メタデータ) (2021-05-07T03:49:26Z) - Monocular Depth Estimation via Listwise Ranking using the Plackett-Luce
Model [15.472533971305367]
多くの実世界のアプリケーションでは、画像内の物体の相対的な深さがシーン理解に不可欠である。
近年のアプローチでは, この問題を回帰課題として扱うことにより, 単眼画像の深度予測の問題に対処している。
しかし、ランク付け手法は回帰の自然な代替として自らを示唆しており、実際、ペア比較を利用したランク付け手法はこの問題に対して有望な性能を示している。
論文 参考訳(メタデータ) (2020-10-25T13:40:10Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。