論文の概要: FaceFusion: Exploiting Full Spectrum of Multiple Datasets
- arxiv url: http://arxiv.org/abs/2305.14601v1
- Date: Wed, 24 May 2023 00:51:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-25 20:59:29.548085
- Title: FaceFusion: Exploiting Full Spectrum of Multiple Datasets
- Title(参考訳): FaceFusion: 複数のデータセットの完全なスペクトルを爆発させる
- Authors: Chiyoung Song, Dongjae Lee
- Abstract要約: 我々はFaceFusionという新しいトレーニング手法を提案する。
ビューを使用して埋め込みネットワークを同時にトレーニングしながら、アイデンティティの衝突によって達成されない、さまざまなデータセットの融合ビューを生成する。
統合データセットの統一ビューを使用することで、組み込みネットワークはデータセットのスペクトル全体に対してトレーニングされ、顕著なパフォーマンス向上につながる。
- 参考スコア(独自算出の注目度): 4.438240667468304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The size of training dataset is known to be among the most dominating aspects
of training high-performance face recognition embedding model. Building a large
dataset from scratch could be cumbersome and time-intensive, while combining
multiple already-built datasets poses the risk of introducing large amount of
label noise. We present a novel training method, named FaceFusion. It creates a
fused view of different datasets that is untainted by identity conflicts, while
concurrently training an embedding network using the view in an end-to-end
fashion. Using the unified view of combined datasets enables the embedding
network to be trained against the entire spectrum of the datasets, leading to a
noticeable performance boost. Extensive experiments confirm superiority of our
method, whose performance in public evaluation datasets surpasses not only that
of using a single training dataset, but also that of previously known methods
under various training circumstances.
- Abstract(参考訳): トレーニングデータセットのサイズは、高性能顔認識埋め込みモデルのトレーニングにおいて、最も支配的な側面の1つとして知られている。
スクラッチから大規模なデータセットを構築するのは煩雑で時間を要する可能性があるが、すでに構築されている複数のデータセットを組み合わせると、大量のラベルノイズが発生するリスクが生じる。
我々はFaceFusionという新しいトレーニング手法を提案する。
エンド・ツー・エンドの方法でビューを使用して組み込みネットワークを同時にトレーニングしながら、アイデンティティの衝突によって影響されないさまざまなデータセットの融合ビューを生成する。
統合データセットの統一ビューを使用することで、組み込みネットワークはデータセットのスペクトル全体に対してトレーニングされ、顕著なパフォーマンス向上につながる。
総合的な実験により, 公開評価データセットの性能が, 訓練データセットの使用だけでなく, 様々な訓練条件下での既知手法よりも優れていることが確認された。
関連論文リスト
- Multi-Site Class-Incremental Learning with Weighted Experts in Echocardiography [1.305420351791698]
実生活におけるパフォーマンスを維持するための心エコー図を作成するには、多様な多地点データが必要である。
本稿では,各データセットのエキスパートネットワークを学習するクラスインクリメンタル学習手法を提案する。
複数のサイトから得られた6つのデータセットの検証を行い、ビュー分類性能を改善しながら、トレーニング時間の大幅な短縮を実証した。
論文 参考訳(メタデータ) (2024-07-31T13:05:32Z) - Automated Label Unification for Multi-Dataset Semantic Segmentation with GNNs [48.406728896785296]
本稿では,グラフニューラルネットワークを用いて,複数のデータセットにまたがる統一ラベル空間を自動構築する手法を提案する。
従来の手法と異なり,本手法は手動の注釈や分類の調整を必要とせず,シームレスな訓練を容易にする。
論文 参考訳(メタデータ) (2024-07-15T08:42:10Z) - Imitation Learning Datasets: A Toolkit For Creating Datasets, Training
Agents and Benchmarking [0.9944647907864256]
模倣学習分野は、タスク内のエージェントを訓練するために専門家データを必要とする。
多くの場合、この学習アプローチは利用可能なデータの欠如に悩まされる。
この作業は、Imitation Learningデータセットを作成することで、これらの問題に対処することを目的としている。
論文 参考訳(メタデータ) (2024-03-01T14:18:46Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Detection Hub: Unifying Object Detection Datasets via Query Adaptation
on Language Embedding [137.3719377780593]
新しいデザイン(De Detection Hubという名前)は、データセット認識とカテゴリ整列である。
データセットの不整合を緩和し、検出器が複数のデータセットをまたいで学習するための一貫性のあるガイダンスを提供する。
データセット間のカテゴリは、ワンホットなカテゴリ表現を単語埋め込みに置き換えることで、意味的に統一された空間に整列される。
論文 参考訳(メタデータ) (2022-06-07T17:59:44Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。