論文の概要: The optimal transport paradigm enables data compression in data-driven
robust control
- arxiv url: http://arxiv.org/abs/2005.09393v2
- Date: Sun, 27 Sep 2020 22:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:50:59.557971
- Title: The optimal transport paradigm enables data compression in data-driven
robust control
- Title(参考訳): データ駆動型ロバスト制御におけるデータ圧縮の最適トランスポートパラダイム
- Authors: Filippo Fabiani, Paul J. Goulart
- Abstract要約: 我々は、このような大きなデータセットを、代表行動のより小さな合成データセットに圧縮する最適な輸送ベース手法を採用する。
圧縮データを用いて計算した分散ロバストな制御法は、元のデータセットと同じ種類の性能保証を享受できることを示す。
数値シミュレーションにより, 合成データによる制御性能は, 元のデータと同等であるが, 計算量が少なくなることを確認した。
- 参考スコア(独自算出の注目度): 4.162663632560141
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A new data-enabled control technique for uncertain linear time-invariant
systems, recently conceived by Coulson et\ al., builds upon the direct
optimization of controllers over input/output pairs drawn from a large dataset.
We adopt an optimal transport-based method for compressing such large dataset
to a smaller synthetic dataset of representative behaviours, aiming to
alleviate the computational burden of controllers to be implemented online.
Specifically, the synthetic data are determined by minimizing the Wasserstein
distance between atomic distributions supported on both the original dataset
and the compressed one. We show that a distributionally robust control law
computed using the compressed data enjoys the same type of performance
guarantees as the original dataset, at the price of enlarging the ambiguity set
by an easily computable and well-behaved quantity. Numerical simulations
confirm that the control performance with the synthetic data is comparable to
the one obtained with the original data, but with significantly less
computation required.
- Abstract(参考訳): 最近Coulsonらによって考案された不確実な線形時間不変システムのための新しいデータ対応制御技術は、大規模なデータセットから引き出された入出力対に対するコントローラの直接最適化に基づいている。
我々は,このような大規模データセットをより小さな代表行動の合成データセットに圧縮する最適な輸送方式を採用し,オンラインで実施するコントローラの計算負担を軽減することを目的とする。
具体的には、原データと圧縮データの両方に支持される原子分布間のワッサースタイン距離を最小にすることで合成データを決定する。
圧縮データを用いて計算された分布的ロバストな制御法は、計算が容易で十分な量で設定された曖昧さを増大させる価格で、元のデータセットと同じ性能保証を享受できることを示す。
数値シミュレーションにより, 合成データによる制御性能は, 元のデータと同等であるが, 計算量が少なくなることを確認した。
関連論文リスト
- Hierarchical Features Matter: A Deep Exploration of GAN Priors for Improved Dataset Distillation [51.44054828384487]
階層的生成潜在蒸留(H-GLaD)と呼ばれる新しいパラメータ化法を提案する。
本手法はGAN内の階層層を系統的に探索する。
さらに,合成データセット評価に伴う計算負担を軽減するために,新しいクラス関連特徴距離尺度を導入する。
論文 参考訳(メタデータ) (2024-06-09T09:15:54Z) - Koopcon: A new approach towards smarter and less complex learning [13.053285552524052]
ビッグデータの時代、データセットの膨大な量と複雑さは、機械学習において大きな課題を引き起こします。
本稿では,クープマン演算子理論を背景とした,革新的オートエンコーダに基づくデータセット凝縮モデルを提案する。
人間の脳の予測的コーディング機構にインスパイアされた我々のモデルは、データをエンコードし再構成するための新しいアプローチを活用する。
論文 参考訳(メタデータ) (2024-05-22T17:47:14Z) - Is Adversarial Training with Compressed Datasets Effective? [4.8576927426880125]
圧縮データセットを用いて学習したモデルに対する対向的ロバスト性の影響を示す。
本稿では,データセットの最小有限被覆(MFC)の探索に基づく,ロバスト性を考慮した新しいデータセット圧縮手法を提案する。
論文 参考訳(メタデータ) (2024-02-08T13:53:11Z) - Let's Synthesize Step by Step: Iterative Dataset Synthesis with Large
Language Models by Extrapolating Errors from Small Models [69.76066070227452]
※データ合成*はラベル付きデータの少ない小さなモデルをトレーニングするための有望な方法です。
本稿では,この分散ギャップを縮めるデータ合成フレームワークであるStep* (**S3**) による合成ステップを提案する。
提案手法は,合成データセットと実データとのギャップを小さくすることで,小型モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-20T17:14:25Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Post-processing Private Synthetic Data for Improving Utility on Selected
Measures [7.371282202708775]
本稿では,エンドユーザが選択した尺度に関して,合成データの有用性を向上するポストプロセッシング手法を提案する。
我々のアプローチは、複数のベンチマークデータセットと最先端の合成データ生成アルゴリズムにまたがる合成データの有用性を一貫して改善する。
論文 参考訳(メタデータ) (2023-05-24T19:49:50Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Dataset Condensation via Efficient Synthetic-Data Parameterization [40.56817483607132]
大量のデータを持つ機械学習は、膨大な計算コストと、トレーニングとチューニングのためのストレージの価格が伴う。
データセットの凝縮に関する最近の研究は、コンパクトなトレーニングデータセットを合成することで、そのような大量のデータへの依存を減らそうとしている。
本稿では,データ規則性を考慮した効率的なパラメータ化により,ストレージ予算に制限のある複数の合成データを生成する,新しい凝縮フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-30T09:55:31Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Optimizing Vessel Trajectory Compression [71.42030830910227]
前回の研究では,AISの位置情報をオンラインで消費することで,血管軌跡の要約表現を提供するトラジェクトリ検出モジュールを導入しました。
この手法は、生データの少なくとも70%を冗長として廃棄することにより、元のコースからほとんど逸脱しない信頼性の高い軌道合成を提供することができる。
しかし、そのような軌道圧縮はパラメトリゼーションに非常に敏感である。
各容器のタイプを考慮し, 軌道のシナプスを改良する適切な構成を提供する。
論文 参考訳(メタデータ) (2020-05-11T20:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。