論文の概要: Synthetic Dataset Evaluation Based on Generalized Cross Validation
- arxiv url: http://arxiv.org/abs/2509.11273v1
- Date: Sun, 14 Sep 2025 13:57:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.006977
- Title: Synthetic Dataset Evaluation Based on Generalized Cross Validation
- Title(参考訳): 一般化クロスバリデーションに基づく合成データセットの評価
- Authors: Zhihang Song, Dingyi Yao, Ruibo Ming, Lihui Peng, Danya Yao, Yi Zhang,
- Abstract要約: 合成データセットの現在の評価研究は限定的であり、普遍的に受け入れられる標準フレームワークが欠如している。
本稿では、一般化されたクロスバリデーション実験とドメイン転送学習の原則を統合する新しい評価フレームワークを提案する。
合成データと実世界のデータセットの類似性を定量化することによりシミュレーション品質を測定し、合成データの多様性とカバレッジを評価して転送品質を評価する。
- 参考スコア(独自算出の注目度): 6.672552664633057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid advancement of synthetic dataset generation techniques, evaluating the quality of synthetic data has become a critical research focus. Robust evaluation not only drives innovations in data generation methods but also guides researchers in optimizing the utilization of these synthetic resources. However, current evaluation studies for synthetic datasets remain limited, lacking a universally accepted standard framework. To address this, this paper proposes a novel evaluation framework integrating generalized cross-validation experiments and domain transfer learning principles, enabling generalizable and comparable assessments of synthetic dataset quality. The framework involves training task-specific models (e.g., YOLOv5s) on both synthetic datasets and multiple real-world benchmarks (e.g., KITTI, BDD100K), forming a cross-performance matrix. Following normalization, a Generalized Cross-Validation (GCV) Matrix is constructed to quantify domain transferability. The framework introduces two key metrics. One measures the simulation quality by quantifying the similarity between synthetic data and real-world datasets, while another evaluates the transfer quality by assessing the diversity and coverage of synthetic data across various real-world scenarios. Experimental validation on Virtual KITTI demonstrates the effectiveness of our proposed framework and metrics in assessing synthetic data fidelity. This scalable and quantifiable evaluation solution overcomes traditional limitations, providing a principled approach to guide synthetic dataset optimization in artificial intelligence research.
- Abstract(参考訳): 合成データセット生成技術の急速な進歩により、合成データの質を評価することが重要な研究課題となっている。
ロバスト評価は、データ生成手法の革新を促進するだけでなく、これらの合成資源の利用を最適化する研究者を導く。
しかし、現在の合成データセットの評価研究は限定的であり、広く受け入れられる標準フレームワークが欠如している。
そこで本研究では,汎用クロスバリデーション実験とドメイン転送学習の原則を統合した新しい評価フレームワークを提案する。
このフレームワークは、合成データセットと複数の実世界のベンチマーク(例えば、KITTI、BDD100K)の両方でタスク固有のモデル(例えば、YOLOv5s)をトレーニングし、クロスパフォーマンスマトリックスを形成する。
正規化後、一般化クロスバリデーション(GCV)行列を構築し、ドメイン転送可能性の定量化を行う。
このフレームワークには2つの重要なメトリクスが導入されている。
合成データと実世界のデータセットの類似性を定量化し、シミュレーション品質を測定する一方、様々な実世界のシナリオにおける合成データの多様性とカバレッジを評価することにより、転送品質を評価する。
仮想KITTIの検証実験により,提案手法の有効性と,合成データの忠実度を評価するための指標の有効性が示された。
このスケーラブルで定量的な評価ソリューションは、従来の制限を克服し、人工知能研究における合成データセット最適化を導くための原則的なアプローチを提供する。
関連論文リスト
- Understanding the Influence of Synthetic Data for Text Embedders [52.04771455432998]
まず,Wangらによって提案された合成データの再生と公開を行った。
合成データがモデル一般化をどのように改善するかを批判的に検討する。
本研究は, 汎用インバータ構築における, 現在の合成データ手法の限界を浮き彫りにしたものである。
論文 参考訳(メタデータ) (2025-09-07T19:28:52Z) - Benchmarking Synthetic Tabular Data: A Multi-Dimensional Evaluation Framework [0.4874819476581695]
合成データの品質を評価することは、データ駆動リサーチにおけるプライバシとユーティリティを確保する上で、依然として重要な課題である。
本稿では,プライバシを確保しつつ,合成データが元の分布特性をいかにうまく再現するかを定量化するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-02T17:10:30Z) - Scaling Laws of Synthetic Data for Language Models [132.67350443447611]
プレトレーニングコーパスを多種多様な高品質な合成データセットに変換するスケーラブルなフレームワークであるSynthLLMを紹介した。
提案手法は,グラフアルゴリズムを用いて複数の文書にまたがるハイレベルな概念を自動的に抽出し,再結合することで実現している。
論文 参考訳(メタデータ) (2025-03-25T11:07:12Z) - Reliability in Semantic Segmentation: Can We Use Synthetic Data? [69.28268603137546]
セマンティックセグメンテーションモデルの現実的信頼性を総合的に評価するために、合成データを具体的に生成する方法を初めて示す。
この合成データは、事前訓練されたセグメンタの堅牢性を評価するために使用される。
セグメンタのキャリブレーションとOOD検出能力を向上するために,我々のアプローチをどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2023-12-14T18:56:07Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - A Study on Improving Realism of Synthetic Data for Machine Learning [6.806559012493756]
この研究は、合成レンダリングを、ラベルのない実世界のデータで条件付けられた汎用データセット上でより現実的なスタイルに変換する合成から現実への生成モデルを訓練し、評価することを目的としている。
論文 参考訳(メタデータ) (2023-04-24T21:41:54Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - On the use of automatically generated synthetic image datasets for
benchmarking face recognition [2.0196229393131726]
GAN(Generative Adversarial Networks)の最近の進歩は、実際のデータセットを合成データセットで置き換える経路を提供する。
現実的な顔画像を合成するためのGAN(Generative Adversarial Networks)の最近の進歩は、実際のデータセットを合成データセットで置き換える経路を提供する。
合成データセットのベンチマーク結果は、良い置換であり、多くの場合、実際のデータセットのベンチマークと同様のエラー率とシステムランキングを提供する。
論文 参考訳(メタデータ) (2021-06-08T09:54:02Z) - Holdout-Based Fidelity and Privacy Assessment of Mixed-Type Synthetic
Data [0.0]
aiベースのデータ合成はここ数年で急速に進歩しており、プライバシを尊重するデータ共有を可能にするという約束がますます認識されている。
我々は,合成データソリューションの信頼性とプライバシリスクを定量化するための,ホールドアウトに基づく実証的評価フレームワークを紹介し,実証する。
論文 参考訳(メタデータ) (2021-04-01T17:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。