論文の概要: StyleDiff: Attribute Comparison Between Unlabeled Datasets in Latent
Disentangled Space
- arxiv url: http://arxiv.org/abs/2303.05102v1
- Date: Thu, 9 Mar 2023 08:21:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-10 15:47:06.359105
- Title: StyleDiff: Attribute Comparison Between Unlabeled Datasets in Latent
Disentangled Space
- Title(参考訳): StyleDiff: ラテン遠方空間におけるラベルなしデータセットの属性比較
- Authors: Keisuke Kawano, Takuro Kutsuna, Ryoko Tokuhisa, Akihiro Nakamura,
Yasushi Esaki
- Abstract要約: そこで我々は,機械学習システムの安定した開発のために,この2つのデータセットの違いを開発者に通知するStyleDiffを提案する。
StyleDiffは2つのデータセットを比較して、イメージの属性に注目し、データセット間の差異を分かりやすく分析する。
StyleDiffはデータセットの違いを正確に検出し、それを理解可能なフォーマットで提示する。
- 参考スコア(独自算出の注目度): 6.396013144017572
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One major challenge in machine learning applications is coping with
mismatches between the datasets used in the development and those obtained in
real-world applications. These mismatches may lead to inaccurate predictions
and errors, resulting in poor product quality and unreliable systems. In this
study, we propose StyleDiff to inform developers of the differences between the
two datasets for the steady development of machine learning systems. Using
disentangled image spaces obtained from recently proposed generative models,
StyleDiff compares the two datasets by focusing on attributes in the images and
provides an easy-to-understand analysis of the differences between the
datasets. The proposed StyleDiff performs in $O (d N\log N)$, where $N$ is the
size of the datasets and $d$ is the number of attributes, enabling the
application to large datasets. We demonstrate that StyleDiff accurately detects
differences between datasets and presents them in an understandable format
using, for example, driving scenes datasets.
- Abstract(参考訳): 機械学習アプリケーションにおける大きな課題のひとつは、開発で使用されるデータセットと実際のアプリケーションで得られたデータセットのミスマッチに対処することだ。
これらのミスマッチは、不正確な予測とエラーを引き起こし、製品の品質が悪く、信頼できないシステムをもたらす可能性がある。
本研究では,機械学習システムの安定した開発のための2つのデータセットの違いを開発者に通知するStyleDiffを提案する。
最近提案された生成モデルから得られた不整合画像空間を用いて、StyleDiffは、画像の属性に着目して2つのデータセットを比較し、データセット間の差異を分かりやすく分析する。
提案されたStyleDiffは$O (d N\log N)$で実行され、$N$はデータセットのサイズ、$d$は属性の数であり、アプリケーションが大きなデータセットにアクセスできる。
StyleDiffはデータセットの違いを正確に検出し、例えばシーンデータセットを駆動するなどして理解可能な形式で提示する。
関連論文リスト
- What is different between these datasets? [23.271594219577185]
同じドメイン内の2つの同等のデータセットは、異なる分布を持つ可能性がある。
本稿では,2つのデータセットを比較するための解釈可能な手法(ツールボックス)を提案する。
我々の手法は、説明品質と正確性の観点から比較および関連するアプローチよりも優れているだけでなく、データセットの違いを効果的に理解し軽減するための実用的な補完的な洞察を提供する。
論文 参考訳(メタデータ) (2024-03-08T19:52:39Z) - Describing Differences in Image Sets with Natural Language [106.19434836499316]
モデルの振る舞いを理解し、データセットを分析するためには、セットレベルの差異を識別することが不可欠である。
本稿では、まずイメージをキャプションし、言語モデルに差分記述を提案するVisDiffを紹介する。
データセットとモデルにこれまで知られていなかった興味深い違いを見つけることができ、微妙な洞察を明らかにする上で、VisDiffの実用性を示すことができます。
論文 参考訳(メタデータ) (2023-12-05T18:59:16Z) - DatasetEquity: Are All Samples Created Equal? In The Quest For Equity
Within Datasets [4.833815605196965]
本稿では,機械学習におけるデータ不均衡に対処する新しい手法を提案する。
深い知覚埋め込みとクラスタリングを用いて、画像の外観に基づいてサンプル確率を計算する。
次に、これらの可能性を使って、提案された$bf Generalized Focal Loss$関数で、トレーニング中にサンプルを異なる重さで測定する。
論文 参考訳(メタデータ) (2023-08-19T02:11:49Z) - infoVerse: A Universal Framework for Dataset Characterization with
Multidimensional Meta-information [68.76707843019886]
infoVerseは、データセットの特徴付けのための普遍的なフレームワークである。
infoVerseは、様々なモデル駆動メタ情報を統合することで、データセットの多次元特性をキャプチャする。
実世界の3つのアプリケーション(データプルーニング、アクティブラーニング、データアノテーション)において、infoVerse空間で選択されたサンプルは、強いベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2023-05-30T18:12:48Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - Detection Hub: Unifying Object Detection Datasets via Query Adaptation
on Language Embedding [137.3719377780593]
新しいデザイン(De Detection Hubという名前)は、データセット認識とカテゴリ整列である。
データセットの不整合を緩和し、検出器が複数のデータセットをまたいで学習するための一貫性のあるガイダンスを提供する。
データセット間のカテゴリは、ワンホットなカテゴリ表現を単語埋め込みに置き換えることで、意味的に統一された空間に整列される。
論文 参考訳(メタデータ) (2022-06-07T17:59:44Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z) - A Note on Data Biases in Generative Models [16.86600007830682]
生成モデルの性能に及ぼすデータセット品質の影響について検討する。
生成モデルによりデータセットの社会的バイアスがどのように再現されるかを示す。
本稿では,写真,油絵,アニメなどの多様なデータセット間の非ペア転送を通じて,クリエイティブな応用を提示する。
論文 参考訳(メタデータ) (2020-12-04T10:46:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。