論文の概要: Artificial Perceptual Learning: Image Categorization with Weak
Supervision
- arxiv url: http://arxiv.org/abs/2106.07559v1
- Date: Wed, 2 Jun 2021 21:12:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-20 16:08:19.374835
- Title: Artificial Perceptual Learning: Image Categorization with Weak
Supervision
- Title(参考訳): 人工知覚学習:弱い監督を伴う画像分類
- Authors: Chengliang Tang, Mar\'ia Uriarte, Helen Jin, Douglas C. Morton, Tian
Zheng
- Abstract要約: 弱教師付き画像分類の問題に対処するために,新しい機械学習フレームワークである人工知能(APL)を提案する。
APLは、幼児分類として知られる認知発達過程を模倣するビルディングブロックとして、最先端の機械学習アルゴリズムを用いて構築されている。
提案手法は,高品質な人間のアノテーションを付加した少数の画像を用いて検証し,提案手法が人間レベルの認知経済を実現することを示す。
- 参考スコア(独自算出の注目度): 2.6774008509840996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning has achieved much success on supervised learning tasks with
large sets of well-annotated training samples. However, in many practical
situations, such strong and high-quality supervision provided by training data
is unavailable due to the expensive and labor-intensive labeling process.
Automatically identifying and recognizing object categories in a large volume
of unlabeled images with weak supervision remains an important, yet unsolved
challenge in computer vision. In this paper, we propose a novel machine
learning framework, artificial perceptual learning (APL), to tackle the problem
of weakly supervised image categorization. The proposed APL framework is
constructed using state-of-the-art machine learning algorithms as building
blocks to mimic the cognitive development process known as infant
categorization. We develop and illustrate the proposed framework by
implementing a wide-field fine-grain ecological survey of tree species over an
8,000-hectare area of the El Yunque rainforest in Puerto Rico. It is based on
unlabeled high-resolution aerial images of the tree canopy. Misplaced
ground-based labels were available for less than 1% of these images, which
serve as the only weak supervision for this learning framework. We validate the
proposed framework using a small set of images with high quality human
annotations and show that the proposed framework attains human-level cognitive
economy.
- Abstract(参考訳): 機械学習は、十分な注釈付きトレーニングサンプルのセットで教師付き学習タスクで大きな成功を収めた。
しかし、多くの実践的な状況では、高価で労働集約的なラベル付けプロセスのため、トレーニングデータによって提供される強固で高品質な監視は利用できない。
オブジェクトのカテゴリを自動的に識別し認識することは、コンピュータビジョンにおいて重要な課題であるが未解決の課題である。
本稿では,弱い教師付き画像分類の問題に対処するため,新しい機械学習フレームワークである人工知覚学習(APL)を提案する。
提案するAPLフレームワークは,幼児分類として知られる認知発達過程を模倣するビルディングブロックとして,最先端の機械学習アルゴリズムを用いて構築されている。
プエルトリコのエルユンケ熱帯雨林の8,000ヘクタールの樹種を対象に,広視野の細粒生態調査を実施し,その枠組みを解明した。
これは木製キャノピーのラベルなしの高精細空中画像に基づいている。
これらの画像のうち1%に満たない位置にあるラベルは、この学習フレームワークの唯一の弱い監督役である。
提案手法が人間レベルの認知経済を実現することを示すために,高品質な人間のアノテーションを用いた画像セットを用いて,提案フレームワークを検証する。
関連論文リスト
- RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Cross-Level Multi-Instance Distillation for Self-Supervised Fine-Grained
Visual Categorization [41.86678318006878]
本稿では,粒度の細かいプレテキスト表現の課題を解決するために,クロスレベルマルチインスタンス蒸留(CMD)フレームワークを提案する。
私たちのキーとなる考え方は、複数のインスタンス学習による微細なプレテキスト表現の決定において、各イメージパッチの重要性を検討することです。
提案手法は,最新の手法を10.14%,既存の最先端の自己教師型学習手法を19.78%,トップ1精度とランク1検索基準の両方で上回っている。
論文 参考訳(メタデータ) (2024-01-16T22:22:09Z) - Re-IQA: Unsupervised Learning for Image Quality Assessment in the Wild [38.197794061203055]
教師なし環境で高レベルのコンテンツと低レベルの画像品質特徴を学習するために、2つの異なるエンコーダを訓練するためのMixture of Expertsアプローチを提案する。
本稿では,Re-IQAフレームワークから得られた高次・低次画像表現を,線形回帰モデルをトレーニングするために展開する。
本手法は,大規模画像品質評価データベース上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-04-02T05:06:51Z) - Automated wildlife image classification: An active learning tool for
ecological applications [0.44970015278813025]
野生生物カメラトラップ画像は、動物の豊富さ、生息環境の関連、行動を調べるために広く利用されている。
人工知能システムは、このタスクを引き継ぐことができるが、通常は十分なパフォーマンスを達成するために、既にラベル付けされた多数のトレーニングイメージを必要とする。
我々は,中小の画像データベースを持つ研究者が,現代の機械学習の可能性を活用できるラベル効率のよい学習戦略を提案する。
論文 参考訳(メタデータ) (2023-03-28T08:51:15Z) - Weakly-supervised HOI Detection via Prior-guided Bi-level Representation
Learning [66.00600682711995]
ヒューマンオブジェクトインタラクション(HOI)検出は、人間中心のシーン理解において重要な役割を担い、多くの視覚タスクの基本的なビルディングブロックとして機能する。
HOI検出のための汎用的でスケーラブルな戦略の1つは、画像レベルのアノテーションからのみ学習する弱い監視を使用することである。
これは、不明瞭な人間と物体の関連、HOIを検出する大きな探索空間、非常にノイズの多い訓練信号によって本質的に困難である。
画像レベルとHOIインスタンスレベルの両方で事前の知識を組み込むことができるCLIP誘導HOI表現を開発し、不正な人間とオブジェクトの関連性を実証するために自己学習機構を採用する。
論文 参考訳(メタデータ) (2023-03-02T14:41:31Z) - Urban feature analysis from aerial remote sensing imagery using
self-supervised and semi-supervised computer vision [8.124947412639704]
コンピュータビジョンを用いたオーバーヘッド画像の解析は学術文献で注目されている問題である。
これらの問題は、表現学習の進歩を取り入れた、より汎用的なフレームワークの開発を通じて解決される。
6千万枚の未表示画像から10年間の都市インフラ進化の低レベル検出に成功したことは, 定量的都市研究を推し進めるための我々のアプローチの有意義な可能性を実証している。
論文 参考訳(メタデータ) (2022-08-17T03:41:56Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - An Empirical Investigation of Representation Learning for Imitation [76.48784376425911]
視覚、強化学習、NLPにおける最近の研究は、補助的な表現学習の目的が、高価なタスク固有の大量のデータの必要性を減らすことを示している。
本稿では,表現学習アルゴリズムを構築するためのモジュラーフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-16T11:23:42Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Unsupervised Image Classification for Deep Representation Learning [42.09716669386924]
埋め込みクラスタリングを使わずに、教師なしのイメージ分類フレームワークを提案する。
提案手法の有効性を証明するために,ImageNetデータセットの実験を行った。
論文 参考訳(メタデータ) (2020-06-20T02:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。