論文の概要: GeneAnnotator: A Semi-automatic Annotation Tool for Visual Scene Graph
- arxiv url: http://arxiv.org/abs/2109.02226v1
- Date: Mon, 6 Sep 2021 03:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 16:35:31.412973
- Title: GeneAnnotator: A Semi-automatic Annotation Tool for Visual Scene Graph
- Title(参考訳): GeneAnnotator:ビジュアルシーングラフのための半自動アノテーションツール
- Authors: Zhixuan Zhang, Chi Zhang, Zhenning Niu, Le Wang, Yuehu Liu
- Abstract要約: GeneAnnotatorは画像用の半自動シーングラフアノテーションツールである。
人間のアノテーションは、視覚シーンにおける参加者間の既存の関係を、有向グラフの形で記述する。
GeneAnnotatorは、重いアノテーションのワークロードを減らすためのルールベースのリレーションシップアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 15.15734494598962
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this manuscript, we introduce a semi-automatic scene graph annotation tool
for images, the GeneAnnotator. This software allows human annotators to
describe the existing relationships between participators in the visual scene
in the form of directed graphs, hence enabling the learning and reasoning on
visual relationships, e.g., image captioning, VQA and scene graph generation,
etc. The annotations for certain image datasets could either be merged in a
single VG150 data-format file to support most existing models for scene graph
learning or transformed into a separated annotation file for each single image
to build customized datasets. Moreover, GeneAnnotator provides a rule-based
relationship recommending algorithm to reduce the heavy annotation workload.
With GeneAnnotator, we propose Traffic Genome, a comprehensive scene graph
dataset with 1000 diverse traffic images, which in return validates the
effectiveness of the proposed software for scene graph annotation. The project
source code, with usage examples and sample data is available at
https://github.com/Milomilo0320/A-Semi-automatic-Annotation-Software-for-Scene-Graph,
under the Apache open-source license.
- Abstract(参考訳): 本稿では,画像のための半自動シーングラフアノテーションツールGeneAnnotatorを紹介する。
このソフトウェアは、人間のアノテータが視覚的シーンにおける参加者間の既存の関係を有向グラフ形式で記述し、画像キャプション、VQA、シーングラフ生成などの視覚的関係の学習と推論を可能にする。
特定の画像データセットに対するアノテーションは、シーングラフ学習のほとんどの既存モデルをサポートする単一のvg150データフォーマットファイルにマージするか、個々の画像に対して分離したアノテーションファイルに変換して、カスタマイズされたデータセットを構築することができる。
さらにGeneAnnotatorは、重いアノテーションのワークロードを減らすためのルールベースのリレーションシップ推奨アルゴリズムを提供する。
そこでgeneannotatorでは,1,000種類のトラヒック画像を含む総合的なシーングラフデータセットであるtraffic genomeを提案する。
使用例とサンプルデータを備えたプロジェクトのソースコードは、Apacheオープンソースライセンス下でhttps://github.com/Milomilo0320/A-Semi-automatic-Annotation-for-Scene-Graphで公開されている。
関連論文リスト
- FACTUAL: A Benchmark for Faithful and Consistent Textual Scene Graph
Parsing [66.70054075041487]
画像キャプションをシーングラフに変換する既存のシーングラフは、しばしば2種類のエラーに悩まされる。
まず、生成されたシーングラフはキャプションや対応する画像の真の意味を捉えず、忠実さの欠如をもたらす。
第二に、生成されたシーングラフは一貫性が高く、同じセマンティクスは異なるアノテーションで表される。
論文 参考訳(メタデータ) (2023-05-27T15:38:31Z) - Iterative Scene Graph Generation with Generative Transformers [6.243995448840211]
シーングラフは、エンティティ(オブジェクト)とその空間関係をグラフィカルなフォーマットで符号化することで、シーンのリッチで構造化された表現を提供する。
現在のアプローチでは、シーン内のオブジェクト間のすべての可能なエッジのラベル付けを通じてシーングラフを生成する、世代別分類アプローチを採用している。
この研究は、リンク予測を超えたシーングラフを生成するための生成トランスフォーマーベースのアプローチを導入する。
論文 参考訳(メタデータ) (2022-11-30T00:05:44Z) - Diffusion-Based Scene Graph to Image Generation with Masked Contrastive
Pre-Training [112.94542676251133]
画像とのアライメントを直接最適化することで,シーングラフの埋め込みを学習する。
具体的には,シーングラフからグローバル情報とローカル情報の両方を抽出するエンコーダを事前訓練する。
SGDiffと呼ばれる結果の方法は、シーングラフノードと接続を変更することによって生成された画像のセマンティックな操作を可能にする。
論文 参考訳(メタデータ) (2022-11-21T01:11:19Z) - Learning to Generate Scene Graph from Natural Language Supervision [52.18175340725455]
シーングラフと呼ばれる画像内の局所化オブジェクトとその関係をグラフィカルに表現するために,画像と文のペアから学習する最初の方法の1つを提案する。
既製のオブジェクト検出器を利用してオブジェクトのインスタンスを識別し、ローカライズし、検出された領域のラベルとキャプションから解析された概念をマッチングし、シーングラフを学習するための"擬似ラベル"を作成する。
論文 参考訳(メタデータ) (2021-09-06T03:38:52Z) - Unconditional Scene Graph Generation [72.53624470737712]
我々はラベル付きおよび有向グラフ上の確率分布を学習できるSceneGraphGenと呼ばれる深層自己回帰モデルを開発した。
SceneGraphGenによって生成されたシーングラフは多様であり、実世界のシーンのセマンティックなパターンに従う。
論文 参考訳(メタデータ) (2021-08-12T17:57:16Z) - Segmentation-grounded Scene Graph Generation [47.34166260639392]
ピクセルレベルセグメンテーションに基づくシーングラフ生成のためのフレームワークを提案する。
私たちのフレームワークは、基盤となるシーングラフ生成方法に無知です。
ターゲットデータセットと補助データセットの両方でマルチタスクで学習される。
論文 参考訳(メタデータ) (2021-04-29T08:54:08Z) - Say As You Wish: Fine-grained Control of Image Caption Generation with
Abstract Scene Graphs [74.88118535585903]
ユーザ意図をきめ細かいレベルで表現するための抽象シーングラフ構造を提案する。
本稿では,ASGからユーザ意図や意味を認識可能なASG2Captionモデルを提案する。
我々のモデルは、VisualGenomeとMSCOCOの両方のデータセットのベースラインを慎重に設計するよりも、ASGの制御性条件付けが優れている。
論文 参考訳(メタデータ) (2020-03-01T03:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。