論文の概要: Object-Centric Cropping for Visual Few-Shot Classification
- arxiv url: http://arxiv.org/abs/2508.00218v1
- Date: Thu, 31 Jul 2025 23:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.690604
- Title: Object-Centric Cropping for Visual Few-Shot Classification
- Title(参考訳): 視覚的Few-Shot分類のためのオブジェクト中心クロッピング
- Authors: Aymane Abdali, Bartosz Boguslawski, Lucas Drumetz, Vincent Gripon,
- Abstract要約: Few-Shotイメージ分類の領域では、クラス毎に1つの例で操作することで、複数のオブジェクトや複雑な背景から生じる画像の曖昧さがパフォーマンスを著しく低下させる可能性がある。
本研究は,画像中の物体の局所的な位置決めに関する追加情報を組み込むことによって,確立されたベンチマークの分類が著しく向上することを示す。
- 参考スコア(独自算出の注目度): 5.199807441687141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the domain of Few-Shot Image Classification, operating with as little as one example per class, the presence of image ambiguities stemming from multiple objects or complex backgrounds can significantly deteriorate performance. Our research demonstrates that incorporating additional information about the local positioning of an object within its image markedly enhances classification across established benchmarks. More importantly, we show that a significant fraction of the improvement can be achieved through the use of the Segment Anything Model, requiring only a pixel of the object of interest to be pointed out, or by employing fully unsupervised foreground object extraction methods.
- Abstract(参考訳): Few-Shotイメージ分類の領域では、クラス毎に1つの例で操作することで、複数のオブジェクトや複雑な背景から生じる画像の曖昧さがパフォーマンスを著しく低下させる可能性がある。
本研究は,画像中の物体の局所的な位置決めに関する追加情報を組み込むことによって,確立されたベンチマークの分類が著しく向上することを示す。
さらに重要なことは、改善のかなりの部分は、Segment Anything Modelを使用することで達成可能であることを示し、注目対象のピクセルのみを指摘する必要があること、あるいは、完全に教師なしのフォアグラウンドオブジェクト抽出手法を用いることで実現可能である。
関連論文リスト
- Zero-Shot Visual Classification with Guided Cropping [9.321383320998262]
対象物に対するゼロショット分類器の焦点を増大させるため,既処理段階におけるオフザシェルフゼロショットオブジェクト検出モデルを提案する。
提案手法はアーキテクチャやデータセット間のゼロショット分類を改良し,小型オブジェクトに好適に適用できることを実証的に示す。
論文 参考訳(メタデータ) (2023-09-12T20:09:12Z) - Weakly-supervised Contrastive Learning for Unsupervised Object Discovery [52.696041556640516]
ジェネリックな方法でオブジェクトを発見できるため、教師なしのオブジェクト発見は有望である。
画像から高レベルな意味的特徴を抽出する意味誘導型自己教師学習モデルを設計する。
オブジェクト領域のローカライズのための主成分分析(PCA)を導入する。
論文 参考訳(メタデータ) (2023-07-07T04:03:48Z) - SemAug: Semantically Meaningful Image Augmentations for Object Detection
Through Language Grounding [5.715548995729382]
本研究では,シーンに文脈的に意味のある知識を注入することで,画像強調のための効果的な手法を提案する。
本手法は,意味的に適切な新しいオブジェクトを抽出することから,言語接地によるオブジェクト検出のための意味的意味的画像強調法であるSemAugを出発点とする。
論文 参考訳(メタデータ) (2022-08-15T19:00:56Z) - Learning with Free Object Segments for Long-Tailed Instance Segmentation [15.563842274862314]
インスタンスセグメントの豊富さは、オブジェクト中心のIm-ageから自由に得ることができる。
これらの知見に触発されて,これらの「自由」オブジェクトセグメントの抽出と活用を目的としたFreeSegを提案する。
FreeSegは、まれなオブジェクトカテゴリのセグメンテーションにおける最先端の精度を達成する。
論文 参考訳(メタデータ) (2022-02-22T19:06:16Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - Unsupervised Part Discovery from Contrastive Reconstruction [90.88501867321573]
自己監督型視覚表現学習の目標は、強く伝達可能な画像表現を学習することである。
対象部分の発見とセグメンテーションに対する教師なしアプローチを提案する。
本手法は, 細粒度, 視覚的に異なるカテゴリ間でセマンティックな部分を生成する。
論文 参考訳(メタデータ) (2021-11-11T17:59:42Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Improving Few-shot Learning with Weakly-supervised Object Localization [24.3569501375842]
画像のクラス関連領域から特徴を抽出してクラス表現を生成する新しいフレームワークを提案する。
提案手法は, miniImageNet および tieredImageNet ベンチマークにおいて,ベースライン数ショットモデルよりも優れている。
論文 参考訳(メタデータ) (2021-05-25T07:39:32Z) - Prototypical Region Proposal Networks for Few-Shot Localization and
Classification [1.5100087942838936]
分割と分類をエンドツーエンドの分類モデルであるPRoPnetに統一するフレームワークを開発する。
本手法は,複数のオブジェクトクラスを含む自然シーンを用いた画像データセットの精度向上を実証した。
論文 参考訳(メタデータ) (2021-04-08T04:03:30Z) - A Simple and Effective Use of Object-Centric Images for Long-Tailed
Object Detection [56.82077636126353]
シーン中心画像における物体検出を改善するために,物体中心画像を活用する。
私たちは、シンプルで驚くほど効果的なフレームワークを提示します。
我々の手法は、レアオブジェクトのオブジェクト検出(およびインスタンスセグメンテーション)の精度を相対的に50%(および33%)向上させることができる。
論文 参考訳(メタデータ) (2021-02-17T17:27:21Z) - Part-aware Prototype Network for Few-shot Semantic Segmentation [50.581647306020095]
本稿では,プロトタイプ表現に基づく新規な数ショットセマンティックセマンティックセマンティクスフレームワークを提案する。
私たちのキーとなるアイデアは、全体論的なクラス表現を、部分認識型プロトタイプのセットに分解することです。
提案する部分認識型プロトタイプを生成・拡張する新しいグラフニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2020-07-13T11:03:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。