論文の概要: Haystack: A Panoptic Scene Graph Dataset to Evaluate Rare Predicate
Classes
- arxiv url: http://arxiv.org/abs/2309.02286v1
- Date: Tue, 5 Sep 2023 14:45:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 14:13:46.344615
- Title: Haystack: A Panoptic Scene Graph Dataset to Evaluate Rare Predicate
Classes
- Title(参考訳): haystack: まれな述語クラスを評価するためのpanoptic scene graphデータセット
- Authors: Julian Lorenz, Florian Barthel, Daniel Kienzle, Rainer Lienhart
- Abstract要約: 我々は,特に稀な述語クラスにおける予測性能のベンチマークとして設計された,新しいパノプティカルシーングラフデータセットとメトリクスのセットを構築した。
新しいデータセットを構築するために,干し草の針のような大きな画像に隠された希少な述語クラスを効率的に見つけるためのモデル支援型アノテーションパイプラインを提案する。
Haystackは、既存のパン光学シーングラフデータセットと100%互換性があり、既存の評価パイプラインと簡単に統合できる。
- 参考スコア(独自算出の注目度): 12.97210402524609
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current scene graph datasets suffer from strong long-tail distributions of
their predicate classes. Due to a very low number of some predicate classes in
the test sets, no reliable metrics can be retrieved for the rarest classes. We
construct a new panoptic scene graph dataset and a set of metrics that are
designed as a benchmark for the predictive performance especially on rare
predicate classes. To construct the new dataset, we propose a model-assisted
annotation pipeline that efficiently finds rare predicate classes that are
hidden in a large set of images like needles in a haystack.
Contrary to prior scene graph datasets, Haystack contains explicit negative
annotations, i.e. annotations that a given relation does not have a certain
predicate class. Negative annotations are helpful especially in the field of
scene graph generation and open up a whole new set of possibilities to improve
current scene graph generation models.
Haystack is 100% compatible with existing panoptic scene graph datasets and
can easily be integrated with existing evaluation pipelines. Our dataset and
code can be found here: https://lorjul.github.io/haystack/. It includes
annotation files and simple to use scripts and utilities, to help with
integrating our dataset in existing work.
- Abstract(参考訳): 現在のシーングラフデータセットは、述語クラスの強いロングテール分布に苦しむ。
テストセット内のいくつかの述語クラスの数が極めて少ないため、最も稀なクラスに対して信頼できるメトリクスを取得できない。
我々は,特に稀な述語クラスにおける予測性能のベンチマークとして設計された,新しいパノプティカルシーングラフデータセットとメトリクスのセットを構築した。
新しいデータセットを構築するために,干し草の針のような大きな画像に隠された希少な述語クラスを効率的に見つけるモデル支援型アノテーションパイプラインを提案する。
以前のシーングラフデータセットとは対照的に、haystackには明示的なネガティブアノテーション、すなわち特定の関係が特定の述語クラスを持っていないアノテーションが含まれている。
負のアノテーションはシーングラフ生成の分野で特に有用であり、現在のシーングラフ生成モデルを改善するための全く新しい可能性のセットを開く。
haystackは既存のpanoptic scene graphデータセットと100%互換性があり、既存の評価パイプラインと簡単に統合できる。
私たちのデータセットとコードは以下の通りです。
アノテーションファイルとスクリプトやユーティリティの使用が簡単で、データセットを既存の作業に統合するのに役立ちます。
関連論文リスト
- TAGLAS: An atlas of text-attributed graph datasets in the era of large graph and language models [25.16561980988102]
TAGLASは、テキスト分散グラフ(TAG)データセットとベンチマークのアトラスである。
我々は、23以上のTAGデータセットを引用グラフから分子グラフまでの範囲で収集し、統合する。
すべてのデータセットやタスクをロードする、標準化された、効率的で、単純化された方法を提供する。
論文 参考訳(メタデータ) (2024-06-20T19:11:35Z) - Enhancing Scene Graph Generation with Hierarchical Relationships and Commonsense Knowledge [7.28830964611216]
この研究は、関係階層とコモンセンス知識の両方によってシーングラフを生成するための拡張されたアプローチを導入する。
我々は,シーングラフ予測システムから結果を批判するために基礎モデルを活用する,堅牢なコモンセンス検証パイプラインを実装した。
Visual GenomeとOpenImage V6データセットの実験では、既存のシーングラフ生成アルゴリズムのプラグインとプレイの拡張として、提案されたモジュールをシームレスに統合できることが示されている。
論文 参考訳(メタデータ) (2023-11-21T06:03:20Z) - Thinking Like an Annotator: Generation of Dataset Labeling Instructions [59.603239753484345]
本稿では、公開されていないラベリング命令に対処するため、新しいタスクであるラベリング命令生成を導入する。
1)データセット内のカテゴリ毎に視覚的に代表されるサンプルのセットを生成し,2)サンプルに対応するテキストラベルを提供する。
このフレームワークは人間のアノテーションのプロキシとして機能し、最終的なラベル付け命令セットを生成し、その品質を評価するのに役立つ。
論文 参考訳(メタデータ) (2023-06-24T18:32:48Z) - Fine-Grained is Too Coarse: A Novel Data-Centric Approach for Efficient
Scene Graph Generation [0.7851536646859476]
本稿では,関連性の生成を優先するSGG(Efficient Scene Graph Generation)の課題を紹介する。
我々は、人気のあるVisual Genomeデータセットのアノテーションに基づいて、新しいデータセットVG150をキュレートする。
我々は、このデータセットが通常SGGで使用されるものよりも高品質で多様なアノテーションを含んでいることを示す一連の実験を通して示す。
論文 参考訳(メタデータ) (2023-05-30T00:55:49Z) - FACTUAL: A Benchmark for Faithful and Consistent Textual Scene Graph
Parsing [66.70054075041487]
画像キャプションをシーングラフに変換する既存のシーングラフは、しばしば2種類のエラーに悩まされる。
まず、生成されたシーングラフはキャプションや対応する画像の真の意味を捉えず、忠実さの欠如をもたらす。
第二に、生成されたシーングラフは一貫性が高く、同じセマンティクスは異なるアノテーションで表される。
論文 参考訳(メタデータ) (2023-05-27T15:38:31Z) - Scene Graph Modification as Incremental Structure Expanding [61.84291817776118]
本研究では,既存のシーングラフを自然言語クエリに基づいて更新する方法を学習するために,シーングラフ修正(SGM)に注目した。
インクリメンタル構造拡張(ISE)の導入によるグラフ拡張タスクとしてのSGM
既存のデータセットよりも複雑なクエリと大きなシーングラフを含む、挑戦的なデータセットを構築します。
論文 参考訳(メタデータ) (2022-09-15T16:26:14Z) - Iterative Scene Graph Generation [55.893695946885174]
シーングラフ生成は、オブジェクトエンティティとその対応する相互作用述語を所定の画像(またはビデオ)で識別する。
シーングラフ生成への既存のアプローチは、推定イテレーションの実現を可能にするために、関節分布の特定の因子化を前提としている。
本稿では,この制限に対処する新しいフレームワークを提案するとともに,画像に動的条件付けを導入する。
論文 参考訳(メタデータ) (2022-07-27T10:37:29Z) - RelTR: Relation Transformer for Scene Graph Generation [34.1193503312965]
エンコーダ-デコーダアーキテクチャを用いたシーングラフ生成モデルRelTRを提案する。
モデルは、異なる種類の注意機構を用いて、固定サイズの三重項の主観的対象を推定する。
Visual GenomeとOpen Images V6データセットの実験は、我々のモデルの優れた性能と高速な推論を実証している。
論文 参考訳(メタデータ) (2022-01-27T11:53:41Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z) - Object Detection with a Unified Label Space from Multiple Datasets [94.33205773893151]
異なるラベル空間を持つ複数のデータセットが与えられた場合、この研究の目標は、すべてのラベル空間の結合について予測する単一のオブジェクト検出器をトレーニングすることである。
あるデータセットにアノテートされているが、別のデータセットにアノテートされていない顔のようなオブジェクトカテゴリを考えてみましょう。
顔のようないくつかのカテゴリは、あるデータセットでは前景と見なされるが、別のデータセットでは背景と見なされる。
本稿では,部分的だが正しいアノテーションを補完的だがノイズの多い擬似ラベルと注意深く統合する損失関数を提案する。
論文 参考訳(メタデータ) (2020-08-15T00:51:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。