論文の概要: ORSA: Outlier Robust Stacked Aggregation for Best- and Worst-Case
Approximations of Ensemble Systems\
- arxiv url: http://arxiv.org/abs/2111.09043v1
- Date: Wed, 17 Nov 2021 11:33:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:02:58.119709
- Title: ORSA: Outlier Robust Stacked Aggregation for Best- and Worst-Case
Approximations of Ensemble Systems\
- Title(参考訳): ORSA: Outlier Robust Stacked Aggregation for Best-Case Approximations of Ensemble Systems
- Authors: Peter Domanski, Dirk Pfl\"uger, Jochen Rivoir, Rapha\"el Latty
- Abstract要約: 半導体デバイスのためのポストシリコンバリデーション(PSV)では、複数の学習アルゴリズムでデータの基盤となる機能を近似することが課題である。
PSVでは、未知の数のサブセットが、非常に異なる特性を示す関数を記述することが期待されている。
本手法は, オフレーヤに対して堅牢で, 可能な限り多くの型に適用可能な, 最良の, 最悪のケースを示す適切な近似を求めることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, the usage of ensemble learning in applications has grown
significantly due to increasing computational power allowing the training of
large ensembles in reasonable time frames. Many applications, e.g., malware
detection, face recognition, or financial decision-making, use a finite set of
learning algorithms and do aggregate them in a way that a better predictive
performance is obtained than any other of the individual learning algorithms.
In the field of Post-Silicon Validation for semiconductor devices (PSV), data
sets are typically provided that consist of various devices like, e.g., chips
of different manufacturing lines. In PSV, the task is to approximate the
underlying function of the data with multiple learning algorithms, each trained
on a device-specific subset, instead of improving the performance of arbitrary
classifiers on the entire data set. Furthermore, the expectation is that an
unknown number of subsets describe functions showing very different
characteristics. Corresponding ensemble members, which are called outliers, can
heavily influence the approximation. Our method aims to find a suitable
approximation that is robust to outliers and represents the best or worst case
in a way that will apply to as many types as possible. A 'soft-max' or
'soft-min' function is used in place of a maximum or minimum operator. A Neural
Network (NN) is trained to learn this 'soft-function' in a two-stage process.
First, we select a subset of ensemble members that is representative of the
best or worst case. Second, we combine these members and define a weighting
that uses the properties of the Local Outlier Factor (LOF) to increase the
influence of non-outliers and to decrease outliers. The weighting ensures
robustness to outliers and makes sure that approximations are suitable for most
types.
- Abstract(参考訳): 近年,大規模なアンサンブルを合理的な時間枠で訓練できる計算能力の増大により,アプリケーションにおけるアンサンブル学習の利用が著しく増加している。
マルウェアの検出、顔認識、財務的な意思決定など、多くのアプリケーションでは、有限の学習アルゴリズムを使用して、個々の学習アルゴリズムよりも優れた予測性能を得る方法でそれらを集約する。
半導体デバイス(psv)のポストシリコン検証の分野では、例えば異なる製造ラインのチップなど、さまざまなデバイスで構成されるデータセットが典型的に提供される。
psvのタスクは、データセット全体の任意の分類器のパフォーマンスを改善するのではなく、デバイス固有のサブセットでトレーニングされた複数の学習アルゴリズムを使って、データの基盤となる関数を近似することである。
さらに、未知の数のサブセットが、非常に異なる特性を示す関数を記述することが期待されている。
対応するアンサンブルメンバーは、外れ値と呼ばれ、近似に大きな影響を与える。
本手法は,外れ値に対してロバストで,可能な限り多くの型に適用可能な最良あるいは最悪の場合を表す適切な近似を求めることを目的としている。
最大または最小の演算子の代わりに 'soft-max' あるいは 'soft-min' 関数が使用される。
ニューラルネットワーク(NN)は、2段階のプロセスでこの「ソフトファンクション」を学ぶために訓練される。
まず、最善または最悪の場合を代表するアンサンブルメンバーのサブセットを選択する。
次に、これらのメンバーを組み合わせて、LoF(Local Outlier Factor)の特性を利用した重み付けを定義し、非outlierの影響を増大させ、outliersを減少させる。
重み付けは外れ値に対するロバスト性を確保し、近似がほとんどの型に適していることを保証する。
関連論文リスト
- Scaling LLM Inference with Optimized Sample Compute Allocation [56.524278187351925]
我々は、異なる推論構成の最適な混合を見つけるアルゴリズムであるOSCAを提案する。
実験の結果,学習した混合アロケーションでは,最高の単一構成よりも精度がよいことがわかった。
OSCAはシングルターンタスク以外のエージェント処理にも有効であることが示されており、デフォルト設定よりも3倍少ない計算でSWE-Benchの精度が向上している。
論文 参考訳(メタデータ) (2024-10-29T19:17:55Z) - Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Optimally Improving Cooperative Learning in a Social Setting [4.200480236342444]
個人所有の分類器を持つネットワークエージェントの集合を動的に更新する協調学習シナリオを考察する。
本稿では,集合目的関数を最適化するための時間アルゴリズムを示し,平等目的関数の最適化がNPハードであることを示す。
全てのアルゴリズムの性能は数学的解析によって保証され、合成データと実データの実験によって裏付けられている。
論文 参考訳(メタデータ) (2024-05-31T14:07:33Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Learning Aggregation Functions [78.47770735205134]
任意の濃度の集合に対する学習可能なアグリゲータであるLAF(Learning Aggregation Function)を紹介する。
半合成および実データを用いて,LAFが最先端の和(max-)分解アーキテクチャより優れていることを示す実験を報告する。
論文 参考訳(メタデータ) (2020-12-15T18:28:53Z) - Feature Importance Ranking for Deep Learning [7.287652818214449]
固定サイズの最適特徴部分集合を探索するための演算子とセレクタからなる新しいデュアルネットアーキテクチャを提案する。
学習中、オペレータは、セレクタによって生成された最適な特徴サブセット候補を介して教師付き学習タスクのために訓練される。
デプロイメントでは、セレクタが最適な特徴サブセットを生成し、機能の重要性をランク付けする一方、オペレータはテストデータの最適なサブセットに基づいて予測を行う。
論文 参考訳(メタデータ) (2020-10-18T12:20:27Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Berrut Approximated Coded Computing: Straggler Resistance Beyond
Polynomial Computing [34.69732430310801]
本稿では,ストラグラー効果に対処する代替手法として,Berrut Approximated Coded Computing (BACC)を提案する。
BACCは計算複雑性が低い数値的に安定であることが証明されている。
特に、BACCは、サーバのクラスタ上でディープニューラルネットワークをトレーニングするために使用される。
論文 参考訳(メタデータ) (2020-09-17T14:23:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。