論文の概要: A Step Toward More Inclusive People Annotations for Fairness
- arxiv url: http://arxiv.org/abs/2105.02317v1
- Date: Wed, 5 May 2021 20:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 01:31:14.860829
- Title: A Step Toward More Inclusive People Annotations for Fairness
- Title(参考訳): 公平性のためのより包括的な人々のアノテーションへのステップ
- Authors: Candice Schumann, Susanna Ricco, Utsav Prabhu, Vittorio Ferrari,
Caroline Pantofaru
- Abstract要約: 我々は、MIAPサブセットと呼ばれるOpen Imagesデータセットのサブセットに新しいアノテーションセットを提示する。
MIAPサブセットの属性とラベル付け手法は、モデルフェアネスの研究を可能にするように設計された。
- 参考スコア(独自算出の注目度): 38.546190750434945
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The Open Images Dataset contains approximately 9 million images and is a
widely accepted dataset for computer vision research. As is common practice for
large datasets, the annotations are not exhaustive, with bounding boxes and
attribute labels for only a subset of the classes in each image. In this paper,
we present a new set of annotations on a subset of the Open Images dataset
called the MIAP (More Inclusive Annotations for People) subset, containing
bounding boxes and attributes for all of the people visible in those images.
The attributes and labeling methodology for the MIAP subset were designed to
enable research into model fairness. In addition, we analyze the original
annotation methodology for the person class and its subclasses, discussing the
resulting patterns in order to inform future annotation efforts. By considering
both the original and exhaustive annotation sets, researchers can also now
study how systematic patterns in training annotations affect modeling.
- Abstract(参考訳): Open Images Datasetには約900万の画像が含まれており、コンピュータビジョン研究において広く受け入れられているデータセットである。
大規模なデータセットの一般的なプラクティスであるように、アノテーションは徹底的ではなく、各イメージのクラスのサブセットのみに対するバウンディングボックスと属性ラベルがある。
本稿では,MIAP(More Inclusive Annotations for People)サブセットと呼ばれるOpen Imagesデータセットのサブセットに新たなアノテーションセットを提示する。
MIAPサブセットの属性とラベル付け手法は、モデルフェアネスの研究を可能にするように設計された。
さらに,個人クラスとそのサブクラスに対する本来のアノテーション方法論を分析し,その結果のパターンを議論し,将来的なアノテーションの取り組みについて報告する。
オリジナルのアノテーションセットと徹底的なアノテーションセットの両方を考慮することで、トレーニングアノテーションのシステマティックパターンがモデリングにどのように影響するかを研究できる。
関連論文リスト
- Masked Image Modeling: A Survey [73.21154550957898]
マスク付き画像モデリングは、コンピュータビジョンにおける強力な自己教師付き学習技術として登場した。
我々は近年,分類学を構築し,最も顕著な論文をレビューしている。
我々は,最も人気のあるデータセット上で,様々なマスク付き画像モデリング手法の性能評価結果を集約する。
論文 参考訳(メタデータ) (2024-08-13T07:27:02Z) - Leveraging image captions for selective whole slide image annotation [0.37334049820361814]
本稿では,モデルトレーニングを最適化する特定の画像領域の同定とアノテーションについて述べる。
プロトタイプサンプリングは、価値あるトレーニング情報を持つアノテーション領域を特定する際に、ランダムサンプリングや多様性サンプリングよりも効果的である。
本結果より, アノテーション領域の同定において, プロトタイプサンプリングの方が, ランダムサンプリングや多様性サンプリングよりも有効であることが示唆された。
論文 参考訳(メタデータ) (2024-07-08T20:05:21Z) - Rethinking Generalization: The Impact of Annotation Style on Medical
Image Segmentation [9.056814157662965]
アノテーションのバイアスを無視するのではなく、アノテーションのバイアスをモデル化することで、データセット間のアノテーションスタイルの違いを考慮できる有望な方法が示される。
次に、特定の画像特徴と相関するモデルアノテーションスタイルに対する画像条件付け手法を提案する。
論文 参考訳(メタデータ) (2022-10-31T15:28:49Z) - VGSE: Visually-Grounded Semantic Embeddings for Zero-Shot Learning [113.50220968583353]
ゼロショット学習のための識別的視覚特性を含むセマンティック埋め込みを発見することを提案する。
本モデルでは,画像の集合を視覚的類似性に応じて局所的な画像領域の集合に視覚的に分割する。
視覚的に接地されたセマンティック埋め込みは、様々なZSLモデルにまたがる単語埋め込みよりも、大きなマージンで性能を向上することを示した。
論文 参考訳(メタデータ) (2022-03-20T03:49:02Z) - Generalized Category Discovery [148.32255950504182]
本稿では,ラベル付き画像集合とラベル付き画像集合とを併用した画像認識手法を提案する。
ここでは、未表示の画像はラベル付きクラスから、あるいは新しいものから来ているかもしれない。
まず、新しいカテゴリー発見から最先端のアルゴリズムを取り入れ、そのタスクに適応することで、強力なベースラインを確立する。
次に、単純だが効果的な半教師付き$k$-meansメソッドを導入する。
論文 参考訳(メタデータ) (2022-01-07T18:58:35Z) - Rectifying the Shortcut Learning of Background: Shared Object
Concentration for Few-Shot Image Recognition [101.59989523028264]
Few-Shot画像分類は、大規模なデータセットから学んだ事前学習された知識を利用して、一連の下流分類タスクに取り組むことを目的としている。
本研究では,Few-Shot LearningフレームワークであるCOSOCを提案する。
論文 参考訳(メタデータ) (2021-07-16T07:46:41Z) - Open-World Semi-Supervised Learning [66.90703597468377]
本稿では,従来のクラスを認識するためにモデルを必要とする,新しいオープンワールド半教師付き学習環境を提案する。
データの分類とクラスタ化を同時に行うアプローチであるORCAを提案する。
我々は,ORCAが新しいクラスを正確に発見し,ベンチマーク画像分類データセット上で以前に見られたクラスにサンプルを割り当てることを示した。
論文 参考訳(メタデータ) (2021-02-06T07:11:07Z) - Multiple instance learning on deep features for weakly supervised object
detection with extreme domain shifts [1.9336815376402716]
近年,画像レベルのアノテーションのみを用いたオブジェクト検出 (WSOD) が注目されている。
事前学習した深部特徴に応用した単純な複数インスタンスアプローチは、非写真データセットに優れた性能をもたらすことを示す。
論文 参考訳(メタデータ) (2020-08-03T20:36:01Z) - Semi-supervised Learning with a Teacher-student Network for Generalized
Attribute Prediction [7.462336024223667]
本稿では,視覚特性予測問題を解くための半教師付き学習について述べる。
提案手法は,ファッション属性予測のための様々なベンチマーク上での競合性能を実現する。
論文 参考訳(メタデータ) (2020-07-14T02:06:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。