論文の概要: Generation of Synthetic Images for Pedestrian Detection Using a Sequence
of GANs
- arxiv url: http://arxiv.org/abs/2401.07370v1
- Date: Sun, 14 Jan 2024 21:18:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 18:31:20.665554
- Title: Generation of Synthetic Images for Pedestrian Detection Using a Sequence
of GANs
- Title(参考訳): GAN系列を用いた歩行者検出のための合成画像の生成
- Authors: Viktor Seib and Malte Roosen and Ida Germann and Stefan Wirtz and
Dietrich Paulus
- Abstract要約: 本研究は、注釈付きデータセットのための新しい画像生成パイプラインを提案する。
パイプラインは3つの異なる生成的対向ネットワークで構成され、歩行者検出のためのデータセットを増強する新しい方法で結合されている。
生成した画像が必ずしも人間の目にとって視覚的に快適であるとは限らないにもかかわらず、我々の検出ベンチマークは結果がベースラインをはるかに上回っていることを明らかにしている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating annotated datasets demands a substantial amount of manual effort. In
this proof-of-concept work, we address this issue by proposing a novel image
generation pipeline. The pipeline consists of three distinct generative
adversarial networks (previously published), combined in a novel way to augment
a dataset for pedestrian detection. Despite the fact that the generated images
are not always visually pleasant to the human eye, our detection benchmark
reveals that the results substantially surpass the baseline. The presented
proof-of-concept work was done in 2020 and is now published as a technical
report after a three years retention period.
- Abstract(参考訳): 注釈付きデータセットを作成するには、かなりの量の手作業が必要です。
本稿では,概念実証において,新しい画像生成パイプラインを提案することでこの問題に対処する。
パイプラインは3つの異なる生成的敵ネットワーク(以前は公開されていた)で構成されており、歩行者検出のためのデータセットを増強する新しい方法で結合されている。
生成した画像が必ずしも人間の目にとって視覚的に快適であるとは限らないにもかかわらず、我々の検出ベンチマークは結果がベースラインをはるかに上回っていることを明らかにしている。
提案された概念実証作業は2020年に行われ、現在は3年間の維持期間を経て技術報告として公開されている。
関連論文リスト
- NovelGS: Consistent Novel-view Denoising via Large Gaussian Reconstruction Model [57.92709692193132]
NovelGSは、スパースビュー画像が与えられたガウススプラッティングの拡散モデルである。
我々は3Dガウスを生成するためにトランスフォーマーネットワークを経由する新しい視点を利用する。
論文 参考訳(メタデータ) (2024-11-25T07:57:17Z) - Zero-Shot Detection of AI-Generated Images [54.01282123570917]
AI生成画像を検出するゼロショットエントロピー検出器(ZED)を提案する。
機械によるテキスト検出の最近の研究に触発された私たちのアイデアは、分析対象の画像が実際の画像のモデルと比較してどれだけ驚くかを測定することである。
ZEDは精度の点でSoTAよりも平均3%以上改善されている。
論文 参考訳(メタデータ) (2024-09-24T08:46:13Z) - Rethinking the Up-Sampling Operations in CNN-based Generative Network
for Generalizable Deepfake Detection [86.97062579515833]
我々は、アップサンプリング操作から生じる一般化された構造的アーティファクトをキャプチャし、特徴付ける手段として、NPR(Neighboring Pixel Relationships)の概念を紹介した。
tft28の異なる生成モデルによって生成されたサンプルを含む、オープンワールドデータセット上で包括的な分析を行う。
この分析は、新しい最先端のパフォーマンスを確立し、既存の手法よりも優れたtft11.6%の向上を示している。
論文 参考訳(メタデータ) (2023-12-16T14:27:06Z) - Incremental 3D Semantic Scene Graph Prediction from RGB Sequences [86.77318031029404]
RGB画像列が与えられたシーンの一貫性のある3Dセマンティックシーングラフをインクリメンタルに構築するリアルタイムフレームワークを提案する。
提案手法は,新たなインクリメンタルエンティティ推定パイプラインとシーングラフ予測ネットワークから構成される。
提案するネットワークは,シーンエンティティから抽出した多視点および幾何学的特徴を用いて,反復的メッセージパッシングを用いた3次元セマンティックシーングラフを推定する。
論文 参考訳(メタデータ) (2023-05-04T11:32:16Z) - HandsOff: Labeled Dataset Generation With No Additional Human
Annotations [13.11411442720668]
本稿では,任意の数の合成画像と対応するラベルを生成する技術であるHandsOffフレームワークを紹介する。
本フレームワークは,GANインバージョンフィールドとデータセット生成を統一することにより,先行作業の現実的な欠点を回避する。
顔、車、フルボディの人間のポーズ、都市運転シーンなど、複数の挑戦的な領域において、リッチなピクセルワイズラベルを持つデータセットを生成します。
論文 参考訳(メタデータ) (2022-12-24T03:37:02Z) - High-fidelity 3D GAN Inversion by Pseudo-multi-view Optimization [51.878078860524795]
フォトリアリスティック・ノベルビューを合成可能な高忠実度3次元生成対向ネットワーク(GAN)インバージョン・フレームワークを提案する。
提案手法は,1枚の画像から高忠実度3Dレンダリングを可能にし,AI生成3Dコンテンツの様々な応用に期待できる。
論文 参考訳(メタデータ) (2022-11-28T18:59:52Z) - Beyond the Spectrum: Detecting Deepfakes via Re-Synthesis [69.09526348527203]
ディープフェイク(Deepfakes)として知られる非常に現実的なメディアは、現実の目から人間の目まで区別できない。
本研究では,テスト画像を再合成し,検出のための視覚的手がかりを抽出する,新しい偽検出手法を提案する。
種々の検出シナリオにおいて,提案手法の摂動に対する有効性の向上,GANの一般化,堅牢性を示す。
論文 参考訳(メタデータ) (2021-05-29T21:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。