論文の概要: Tailoring Mixup to Data using Kernel Warping functions
- arxiv url: http://arxiv.org/abs/2311.01434v1
- Date: Thu, 2 Nov 2023 17:48:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 12:22:53.094031
- Title: Tailoring Mixup to Data using Kernel Warping functions
- Title(参考訳): カーネルワープ機能を用いたデータへの混合処理
- Authors: Quentin Bouniot, Pavlo Mozharovskyi, Florence d'Alch\'e-Buc
- Abstract要約: トレーニングデータポイントの線形拡張(mixupとも呼ばれる)は、アプリケーションの大規模なパネルに有効であることが判明した。
本稿では,各点データ間の類似度に応じて,ワープ関数によって係数の基底分布を動的に変化させることを提案する。
- 参考スコア(独自算出の注目度): 6.03891813540831
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data augmentation is an essential building block for learning efficient deep
learning models. Among all augmentation techniques proposed so far, linear
interpolation of training data points, also called mixup, has found to be
effective for a large panel of applications. While the majority of works have
focused on selecting the right points to mix, or applying complex non-linear
interpolation, we are interested in mixing similar points more frequently and
strongly than less similar ones. To this end, we propose to dynamically change
the underlying distribution of interpolation coefficients through warping
functions, depending on the similarity between data points to combine. We
define an efficient and flexible framework to do so without losing in
diversity. We provide extensive experiments for classification and regression
tasks, showing that our proposed method improves both performance and
calibration of models. Code available in
https://github.com/ENSTA-U2IS/torch-uncertainty
- Abstract(参考訳): データ拡張は、効率的なディープラーニングモデルを学ぶために不可欠なビルディングブロックである。
これまでに提案されている拡張手法の中で、トレーニングデータポイントの線形補間(mixupとも呼ばれる)は、大規模なアプリケーションで有効であることが判明した。
多くの作品が混合する適切な点の選択や複雑な非線形補間に焦点を当てているが、類似点をより頻繁に強く混合することに関心を持っている。
そこで本稿では,データ点間の類似度に応じて,ワープ関数によって補間係数の基底分布を動的に変化させることを提案する。
多様性を損なうことなく、効率的で柔軟なフレームワークを定義します。
分類と回帰タスクに関する広範な実験を行い,提案手法がモデルの性能とキャリブレーションの両方を改善することを示した。
https://github.com/ENSTA-U2IS/torch-uncertaintyで利用可能なコード
関連論文リスト
- Exploring Learning Complexity for Downstream Data Pruning [9.526877053855998]
本稿では,学習複雑性(LC)を分類・回帰タスクのスコアリング機能として扱うことを提案する。
大規模言語モデルの微調整を行うため,本手法は安定収束による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-08T02:29:33Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Multi-Task Learning for Sparsity Pattern Heterogeneity: A Discrete
Optimization Approach [5.757286797214176]
最適サブセット選択を線形マルチタスク学習(MTL)に拡張する
本稿では,タスク間の情報共有を支援するMLLのモデリングフレームワークを提案する。
提案手法は,変数選択および予測精度において,他のスパースMTL法よりも優れている。
論文 参考訳(メタデータ) (2022-12-16T19:52:25Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - Harnessing Hard Mixed Samples with Decoupled Regularizer [69.98746081734441]
Mixupは、決定境界を混合データで滑らかにすることで、ニューラルネットワークの一般化を改善する効率的なデータ拡張アプローチである。
本稿では,非結合型正規化器(Decoupled Mixup, DM)を用いた効率的な混合目標関数を提案する。
DMは、ミキシングの本来の滑らかさを損なうことなく、硬質混合試料を適応的に利用して識別特性をマイニングすることができる。
論文 参考訳(メタデータ) (2022-03-21T07:12:18Z) - Dynamic Data Augmentation with Gating Networks [5.251019642214251]
本稿では,互いに有利なゲーティングネットワークと特徴整合損失を用いて,最適な組み合わせを動的に選択するニューラルネットワークを提案する。
実験では,2018 UCR Time Series Archiveの12大時系列データセットに対して提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2021-11-05T04:24:51Z) - MixRL: Data Mixing Augmentation for Regression using Reinforcement
Learning [2.1345682889327837]
データ拡張のための既存のテクニックは、主に分類タスクに焦点を当てており、回帰タスクに簡単には適用できない。
その結果,大容量データとラベル距離の混合がモデル性能に悪影響を及ぼす可能性が示唆された。
そこで本研究では,データ拡張メタ学習フレームワークであるMixRLを提案する。
論文 参考訳(メタデータ) (2021-06-07T07:01:39Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z) - Multi-scale Interactive Network for Salient Object Detection [91.43066633305662]
本稿では,隣接レベルからの機能を統合するためのアグリゲート・インタラクション・モジュールを提案する。
より効率的なマルチスケール機能を得るために、各デコーダユニットに自己相互作用モジュールを埋め込む。
5つのベンチマークデータセットによる実験結果から,提案手法は後処理を一切行わず,23の最先端手法に対して良好に動作することが示された。
論文 参考訳(メタデータ) (2020-07-17T15:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。