論文の概要: AIDOVECL: AI-generated Dataset of Outpainted Vehicles for Eye-level Classification and Localization
- arxiv url: http://arxiv.org/abs/2410.24116v1
- Date: Thu, 31 Oct 2024 16:46:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:03:37.004573
- Title: AIDOVECL: AI-generated Dataset of Outpainted Vehicles for Eye-level Classification and Localization
- Title(参考訳): AIDOVECL: 視線レベルの分類とローカライゼーションのための外装車両のAI生成データセット
- Authors: Amir Kazemi, Qurat ul ain Fatima, Volodymyr Kindratenko, Christopher Tessum,
- Abstract要約: この研究は、注釈付きデータ不足の問題に対処するために、アウトペイントを活用する新しいアプローチを導入している。
この技術は、自動運転、都市計画、環境モニタリングにおいて特に困難な課題に応用する。
塗装された車両による増強は、全体のパフォーマンス指標を最大8%改善し、未表現クラスの予測を最大20%向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Image labeling is a critical bottleneck in the development of computer vision technologies, often constraining the potential of machine learning models due to the time-intensive nature of manual annotations. This work introduces a novel approach that leverages outpainting to address the problem of annotated data scarcity by generating artificial contexts and annotations, significantly reducing manual labeling efforts. We apply this technique to a particularly acute challenge in autonomous driving, urban planning, and environmental monitoring: the lack of diverse, eye-level vehicle images in desired classes. Our dataset comprises AI-generated vehicle images obtained by detecting and cropping vehicles from manually selected seed images, which are then outpainted onto larger canvases to simulate varied real-world conditions. The outpainted images include detailed annotations, providing high-quality ground truth data. Advanced outpainting techniques and image quality assessments ensure visual fidelity and contextual relevance. Augmentation with outpainted vehicles improves overall performance metrics by up to 8\% and enhances prediction of underrepresented classes by up to 20\%. This approach, exemplifying outpainting as a self-annotating paradigm, presents a solution that enhances dataset versatility across multiple domains of machine learning. The code and links to datasets used in this study are available for further research and replication at https://github.com/amir-kazemi/aidovecl.
- Abstract(参考訳): 画像ラベリングはコンピュータビジョン技術の発達において重要なボトルネックであり、しばしば手動アノテーションの時間集約的な性質のために機械学習モデルの可能性を制限している。
本研究は,人工コンテキストとアノテーションを生成し,手動ラベリングの労力を大幅に削減することで,注釈付きデータ不足の問題に対処するために,アウトペイントを活用する新しいアプローチを導入する。
我々はこの手法を、自動運転、都市計画、環境モニタリングにおいて特に困難な課題に適用する: 望ましいクラスにおいて、多様な目視レベルの車両画像が欠如している。
我々のデータセットは、手動で選択したシード画像から車両を検出して収穫したAI生成車両画像からなる。
アウトペイントされた画像には詳細なアノテーションが含まれ、高品質な地上真実データを提供する。
高度なアウトペイント技術と画像品質評価により、視覚的忠実度と文脈的関連性が保証される。
塗装された車両による増強は、全体のパフォーマンス指標を最大8\%改善し、未表現クラスの予測を最大20\%向上させる。
このアプローチは、自己アノテートパラダイムとしてのアウトペイントを例示し、機械学習の複数のドメインにわたるデータセットの汎用性を高めるソリューションを提供する。
この研究で使用されるコードとデータセットへのリンクは、https://github.com/amir-kazemi/aidovecl.comでさらなる研究とレプリケーションが可能である。
関連論文リスト
- Visual Car Brand Classification by Implementing a Synthetic Image Dataset Creation Pipeline [3.524869467682149]
安定拡散を用いた合成画像データセットの自動生成パイプラインを提案する。
YOLOv8を用いて自動境界ボックス検出と合成画像の品質評価を行う。
論文 参考訳(メタデータ) (2024-06-03T07:44:08Z) - Exploring Generative AI for Sim2Real in Driving Data Synthesis [6.769182994217369]
ドライビングシミュレータは、対応するアノテーションで様々なドライビングシナリオを自動的に生成するソリューションを提供するが、シミュレーションとリアリティ(Sim2Real)ドメインギャップは依然として課題である。
本稿では,現実的なデータセット作成のためのブリッジとして,運転シミュレータからのセマンティックラベルマップを活用するために,3つの異なる生成AI手法を適用した。
実験の結果,手動のアノテートラベルが提供されると,GANベースの手法は高品質な画像を生成するには適しているが,ControlNetは,シミュレータ生成ラベルを使用すると,より少ないアーティファクトとより構造的忠実度を持つ合成データセットを生成することがわかった。
論文 参考訳(メタデータ) (2024-04-14T01:23:19Z) - Is Synthetic Image Useful for Transfer Learning? An Investigation into Data Generation, Volume, and Utilization [62.157627519792946]
ブリッジドトランスファー(ブリッジドトランスファー)と呼ばれる新しいフレームワークを導入する。このフレームワークは、当初、トレーニング済みモデルの微調整に合成画像を使用し、転送性を向上させる。
合成画像と実画像のスタイルアライメントを改善するために,データセットスタイルの逆変換方式を提案する。
提案手法は10の異なるデータセットと5つの異なるモデルで評価され、一貫した改善が示されている。
論文 参考訳(メタデータ) (2024-03-28T22:25:05Z) - Deep Domain Adaptation: A Sim2Real Neural Approach for Improving Eye-Tracking Systems [80.62854148838359]
眼球画像のセグメンテーションは、最終視線推定に大きな影響を及ぼす眼球追跡の重要なステップである。
対象視線画像と合成訓練データとの重なり合いを測定するために,次元還元法を用いている。
提案手法は,シミュレーションと実世界のデータサンプルの相違に対処する際の頑健で,性能が向上する。
論文 参考訳(メタデータ) (2024-03-23T22:32:06Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - Free-ATM: Exploring Unsupervised Learning on Diffusion-Generated Images
with Free Attention Masks [64.67735676127208]
テキストと画像の拡散モデルは、画像認識の恩恵を受ける大きな可能性を示している。
有望ではあるが、拡散生成画像の教師なし学習に特化した調査は不十分である。
上記フリーアテンションマスクをフル活用することで、カスタマイズされたソリューションを導入する。
論文 参考訳(メタデータ) (2023-08-13T10:07:46Z) - CarPatch: A Synthetic Benchmark for Radiance Field Evaluation on Vehicle
Components [77.33782775860028]
車両の新たな総合ベンチマークであるCarPatchを紹介する。
内在カメラパラメータと外在カメラパラメータを付加した画像のセットに加えて、各ビューに対して対応する深度マップとセマンティックセグメンテーションマスクが生成されている。
グローバルとパートベースのメトリクスは、いくつかの最先端技術を評価し、比較し、より良い特徴付けるために定義され、使われてきた。
論文 参考訳(メタデータ) (2023-07-24T11:59:07Z) - Image Captions are Natural Prompts for Text-to-Image Models [70.30915140413383]
本研究では,合成データの学習効果とプロンプトによる合成データ分布の関係を解析した。
本稿では,テキストから画像への生成モデルにより,より情報的で多様な学習データを合成する簡易かつ効果的な手法を提案する。
本手法は,合成学習データに基づいて訓練したモデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-07-17T14:38:11Z) - CIFAKE: Image Classification and Explainable Identification of
AI-Generated Synthetic Images [7.868449549351487]
本稿では,コンピュータビジョンによるAI生成画像の認識能力を高めることを提案する。
写真が本物かAIによって生成されるかに関して、バイナリ分類問題として存在する2つのデータセット。
本研究では,畳み込みニューラルネットワーク(CNN)を用いて画像をリアルとフェイクの2つのカテゴリに分類する。
論文 参考訳(メタデータ) (2023-03-24T16:33:06Z) - Artificial and beneficial -- Exploiting artificial images for aerial
vehicle detection [1.4528189330418975]
本研究では,2次元cad描画から作成した車両を人工的あるいは実際の背景に重ね合わせてトップダウン画像を生成する生成手法を提案する。
修正されたRetinaNetオブジェクト検出ネットワークによる実験では、これらの画像を小さな実世界のデータセットに追加することで、検出パフォーマンスが大幅に向上することを示しています。
論文 参考訳(メタデータ) (2021-04-07T11:06:15Z) - Combining Semantic Guidance and Deep Reinforcement Learning For
Generating Human Level Paintings [22.889059874754242]
脳卒中に基づく非フォトリアリスティック画像の生成は、コンピュータビジョンコミュニティにおいて重要な問題である。
従来の手法は、前景オブジェクトの位置、規模、正当性にほとんど変化のないデータセットに限られていた。
本研究では,1)前景と背景の筆画の区別を学習するための2段階の塗装手順を備えたセマンティック・ガイダンス・パイプラインを提案する。
論文 参考訳(メタデータ) (2020-11-25T09:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。