論文の概要: Web-based Elicitation of Human Perception on mixup Data
- arxiv url: http://arxiv.org/abs/2211.01202v1
- Date: Wed, 2 Nov 2022 15:27:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 13:03:11.472071
- Title: Web-based Elicitation of Human Perception on mixup Data
- Title(参考訳): 混成データに基づく人間の知覚のWebベース抽出
- Authors: Katherine M. Collins, Umang Bhatt, Weiyang Liu, Vihari Piratla,
Bradley Love, Adrian Weller
- Abstract要約: 我々は、texttHILL MixE Suiteトレーニング中に構築された合成データの種類についての知覚的判断を提供するための一連の説明インタフェースを設計する。
人間の知覚は、伝統的に合成点として用いられてきたラベルと一貫して一致せず、下流モデルの信頼性を高めるためにこれらの発見の適用性を実証し始めます。
- 参考スコア(独自算出の注目度): 32.76853103702903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Synthetic data is proliferating on the web and powering many advances in
machine learning. However, it is not always clear if synthetic labels are
perceptually sensible to humans. The web provides us with a platform to take a
step towards addressing this question through online elicitation. We design a
series of elicitation interfaces, which we release as \texttt{HILL MixE Suite},
and recruit 159 participants, to provide perceptual judgments over the kinds of
synthetic data constructed during \textit{mixup} training: a powerful
regularizer shown to improve model robustness, generalization, and calibration.
We find that human perception does not consistently align with the labels
traditionally used for synthetic points and begin to demonstrate the
applicability of these findings to potentially increase the reliability of
downstream models. We release all elicited judgments in a new data hub we call
\texttt{H-Mix}.
- Abstract(参考訳): 合成データはweb上で増殖し、機械学習の多くの進歩を支えている。
しかしながら、合成ラベルが人間に知覚可能なものであるかどうかは必ずしも明確ではない。
webは私たちに、オンラインの誘惑を通じてこの問題に取り組むための一歩を踏み出すためのプラットフォームを提供します。
我々は, \textit{mixup} トレーニング中に構築された合成データの種類に対する知覚的判断を提供するために, \texttt{hill mixe suite} としてリリースする一連のelicitation interface を設計し,159名の参加者を募集した。
人間の知覚は、伝統的に合成点に用いられるラベルと一貫して一致せず、下流モデルの信頼性を高めるためにこれらの発見の適用性を示すようになる。
私たちは、新しいデータハブである \texttt{h-mix} ですべての導出判断をリリースします。
関連論文リスト
- On the Stability of Iterative Retraining of Generative Models on their
own Data [56.153542044045224]
生成モデルの訓練がデータセット(実データと合成データの混合データ)の安定性に及ぼす影響について検討した。
まず、初期生成モデルがデータ分布を十分に近似する条件下で反復学習の安定性を実証する。
我々は,CIFAR10およびFFHQ上の正規化フローと最先端拡散モデルの反復的訓練により,合成画像と自然画像の両方に関する理論を実証的に検証した。
論文 参考訳(メタデータ) (2023-09-30T16:41:04Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Over-training with Mixup May Hurt Generalization [32.64382185990981]
今回,Mixupトレーニングの既往の現象を報告する。
多くの標準データセットにおいて、Mixupトレーニングモデルの性能は、多くのエポックのトレーニング後に低下し始めます。
理論的には、Mixupトレーニングは、不要なデータ依存ラベルノイズを合成データに導入する可能性がある。
論文 参考訳(メタデータ) (2023-03-02T18:37:34Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Towards Calibrated Model for Long-Tailed Visual Recognition from Prior
Perspective [17.733087434470907]
実世界のデータは、深刻な階級不均衡問題に直面し、長い尾の分布を示す。
本稿では,このジレンマを緩和する2つの新しい手法を提案する。
まず、UniMix(UniMix)と呼ばれるバランス指向データ拡張を推定し、長期のシナリオでミキサアップを促進する。
第二に、ベイズ理論に動機づけられたベイズバイアス(ベイアズ)は、標準的なクロスエントロピー損失の修正としてそれを補償する。
論文 参考訳(メタデータ) (2021-11-06T12:53:34Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Contrastive Model Inversion for Data-Free Knowledge Distillation [60.08025054715192]
そこで、データ多様性を最適化可能な目的として明示的にモデル化するContrastive Model Inversionを提案します。
我々の主な観察では、同じ量のデータの制約の下では、高いデータの多様性は、通常より強いインスタンス識別を示す。
CIFAR-10, CIFAR-100, Tiny-ImageNetを用いた実験により, 生成したデータを知識蒸留に使用する場合, CMIは極めて優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2021-05-18T15:13:00Z) - Holdout-Based Fidelity and Privacy Assessment of Mixed-Type Synthetic
Data [0.0]
aiベースのデータ合成はここ数年で急速に進歩しており、プライバシを尊重するデータ共有を可能にするという約束がますます認識されている。
我々は,合成データソリューションの信頼性とプライバシリスクを定量化するための,ホールドアウトに基づく実証的評価フレームワークを紹介し,実証する。
論文 参考訳(メタデータ) (2021-04-01T17:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。