論文の概要: Towards Deep Industrial Transfer Learning: Clustering for Transfer Case
Selection
- arxiv url: http://arxiv.org/abs/2204.01620v1
- Date: Mon, 4 Apr 2022 16:11:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 13:34:44.422806
- Title: Towards Deep Industrial Transfer Learning: Clustering for Transfer Case
Selection
- Title(参考訳): Deep Industrial Transfer Learningに向けて:転送事例選択のためのクラスタリング
- Authors: Benjamin Maschler, Tim Knodel, Michael Weyrich
- Abstract要約: 産業移行学習は、高度な手作業を伴わない異種および動的産業用ユースケースに対するディープラーニングアルゴリズムの適応性を高める。
BIRCHアルゴリズムは、個別の製造シナリオから産業時系列データセットを用いて評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Industrial transfer learning increases the adaptability of deep learning
algorithms towards heterogenous and dynamic industrial use cases without high
manual efforts. The appropriate selection of what to transfer can vastly
improve a transfer's results. In this paper, a transfer case selection based
upon clustering is presented. Founded on a survey of clustering algorithms, the
BIRCH algorithm is selected for this purpose. It is evaluated on an industrial
time series dataset from a discrete manufacturing scenario. Results underline
the approaches' applicability caused by its results' reproducibility and
practical indifference to sequence, size and dimensionality of (sub-)datasets
to be clustered sequentially.
- Abstract(参考訳): 産業移行学習は、高度な手作業を伴わない異種および動的産業用ユースケースに対するディープラーニングアルゴリズムの適応性を高める。
転送対象の適切な選択は、転送結果を大幅に改善することができる。
本稿では,クラスタリングに基づく転送ケースの選択について述べる。
クラスタリングアルゴリズムの調査に基づいて設立されたbirchアルゴリズムはこの目的のために選択される。
個別の製造シナリオから,産業時系列データセットを用いて評価する。
その結果, (サブ) データセットのシーケンス, サイズ, 次元性に対する再現性や実践的な差が, 連続的にクラスタ化される。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Data Augmentation for Traffic Classification [54.92823760790628]
Data Augmentation (DA) はコンピュータビジョン(CV)と自然言語処理(NLP)に広く採用されている技術である。
DAはネットワークのコンテキスト、特にトラフィック分類(TC)タスクにおいて、牽引力を得るのに苦労しています。
論文 参考訳(メタデータ) (2024-01-19T15:25:09Z) - A Survey on Deep Industrial Transfer Learning in Fault Prognostics [0.0]
本稿では,この分野での今後の研究のベストプラクティスを確立することを目的とする。
この分野では、結果を堅牢に比較し、科学的進歩を促進するための一般的なベンチマークが欠落していることが示されている。
これらの出版物で利用されるデータセットを調査し、このようなベンチマークシナリオに適した候補を特定する。
論文 参考訳(メタデータ) (2023-01-04T17:01:27Z) - Automatic Data Augmentation via Invariance-Constrained Learning [94.27081585149836]
下位のデータ構造は、しばしば学習タスクのソリューションを改善するために利用される。
データ拡張は、入力データに複数の変換を適用することで、トレーニング中にこれらの対称性を誘導する。
この作業は、学習タスクを解決しながらデータ拡張を自動的に適応することで、これらの問題に対処する。
論文 参考訳(メタデータ) (2022-09-29T18:11:01Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - Classifier Transfer with Data Selection Strategies for Online Support
Vector Machine Classification with Class Imbalance [1.2599533416395767]
我々は、格納されたトレーニングデータのサイズを制限するデータ選択戦略に焦点を当てる。
データ選択基準の正しい組み合わせを用いることで、分類器を適応させ、性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-08-10T02:36:20Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - On the Robustness of Active Learning [0.7340017786387767]
Active Learningは、機械学習アルゴリズムをトレーニングする上で最も有用なサンプルを特定する方法に関するものだ。
十分な注意とドメイン知識を持っていないことがよくあります。
そこで本研究では,Simpson の多様性指標に基づく新たな "Sum of Squared Logits" 手法を提案する。
論文 参考訳(メタデータ) (2020-06-18T09:07:23Z) - Ensemble Wrapper Subsampling for Deep Modulation Classification [70.91089216571035]
受信した無線信号のサブサンプリングは、ハードウェア要件と信号処理アルゴリズムの計算コストを緩和するために重要である。
本稿では,無線通信システムにおけるディープラーニングを用いた自動変調分類のためのサブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2020-05-10T06:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。