論文の概要: Enhancing Industrial Transfer Learning with Style Filter: Cost Reduction and Defect-Focus
- arxiv url: http://arxiv.org/abs/2403.16607v1
- Date: Mon, 25 Mar 2024 10:38:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:08:28.654398
- Title: Enhancing Industrial Transfer Learning with Style Filter: Cost Reduction and Defect-Focus
- Title(参考訳): スタイルフィルタによる産業移転学習の強化:コスト削減と欠陥点
- Authors: Chen Li, Ruijie Ma, Xiang Qian, Xiaohao Wang, Xinghui Li,
- Abstract要約: スタイルフィルタ(Style Filter)は、産業の文脈に合わせた方法論である。
ラベルのない操作、事前知識への依存の最小化、特定のモデルからの独立、再活用を提供する。
実世界の産業応用におけるスタイルフィルタの有効性を実証した。
- 参考スコア(独自算出の注目度): 3.9896064923036314
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Addressing the challenge of data scarcity in industrial domains, transfer learning emerges as a pivotal paradigm. This work introduces Style Filter, a tailored methodology for industrial contexts. By selectively filtering source domain data before knowledge transfer, Style Filter reduces the quantity of data while maintaining or even enhancing the performance of transfer learning strategy. Offering label-free operation, minimal reliance on prior knowledge, independence from specific models, and re-utilization, Style Filter is evaluated on authentic industrial datasets, highlighting its effectiveness when employed before conventional transfer strategies in the deep learning domain. The results underscore the effectiveness of Style Filter in real-world industrial applications.
- Abstract(参考訳): 産業領域におけるデータ不足の課題に対処する上で、トランスファーラーニングは重要なパラダイムとして現れます。
この研究は、産業コンテキストに適した方法であるStyle Filterを導入している。
知識伝達前のソースドメインデータを選択的にフィルタリングすることにより、Style Filterは、転送学習戦略の維持や強化をしながら、データの量を削減する。
ラベルのない操作、事前知識への依存の最小化、特定のモデルからの独立性、再活用を提供することにより、Style Filterは、真正な産業データセットに基づいて評価され、ディープラーニング領域における従来の転送戦略よりも前にその有効性を強調する。
この結果は, 実世界の産業応用におけるスタイルフィルタの有効性を裏付けるものである。
関連論文リスト
- Loss-Free Machine Unlearning [51.34904967046097]
我々は、再学習とラベルなしの両方の機械学習アプローチを提案する。
Retraining-freeアプローチは、損失から派生したFisher情報を利用することが多く、利用できないラベル付きデータを必要とする。
本稿では,モデル出力のl2ノルムの勾配に対して,フィッシャー情報行列の対角線を近似感度に置き換えるSelective Synaptic Dampeningアルゴリズムの拡張を提案する。
論文 参考訳(メタデータ) (2024-02-29T16:15:34Z) - Towards Consistency Filtering-Free Unsupervised Learning for Dense
Retrieval [28.959643428359705]
ドメイン転送は、現代のニューラル情報検索(IR)における一般的な課題である
本研究では、一貫性フィルタを、直接擬似ラベル付け、擬似関連フィードバック、教師なしキーワード生成手法に置き換えることにより、より効率的な解を評価する。
論文 参考訳(メタデータ) (2023-08-05T17:33:51Z) - VisDA 2022 Challenge: Domain Adaptation for Industrial Waste Sorting [61.52419223232737]
産業廃棄物の選別において、最も大きな課題の1つは入力ストリームの極端な多様性である。
産業廃棄物浄化における領域適応に関するVisDA 2022の課題について紹介する。
論文 参考訳(メタデータ) (2023-03-26T21:38:38Z) - Deep Learning based pipeline for anomaly detection and quality
enhancement in industrial binder jetting processes [68.8204255655161]
異常検出は、通常の値空間とは異なる異常状態、インスタンス、あるいはデータポイントを検出する方法を記述する。
本稿では,産業生産における人工知能へのデータ中心のアプローチに寄与する。
論文 参考訳(メタデータ) (2022-09-21T08:14:34Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Transfer of codebook latent factors for cross-domain recommendation with
non-overlapping data [5.145146101802871]
Data Sparsityは、協調フィルタリング技術における大きな欠点の1つだ。
本稿では,クロスドメインレコメンデーションのための新しいトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2022-03-26T05:26:39Z) - An Empirical Exploration in Quality Filtering of Text Data [0.0]
GPT型言語モデルにおいて、アグレッシブフィルタリングは、幅広い下流タスクにおけるモデル品質の低下につながることが判明した。
これは、プロキシメトリックに対して十分に強く最適化することが、真の目的に対するパフォーマンスを損なうためである、と推測する。
論文 参考訳(メタデータ) (2021-09-02T04:02:51Z) - Latent-Optimized Adversarial Neural Transfer for Sarcasm Detection [50.29565896287595]
サーカズム検出のための共通データセットを活用するために,転送学習を適用する。
異なる損失が互いに対応できる汎用的な潜時最適化戦略を提案します。
特に、isarcasmデータセットの以前の状態よりも10.02%の絶対性能向上を達成している。
論文 参考訳(メタデータ) (2021-04-19T13:07:52Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。