論文の概要: Federated Transfer Learning with Task Personalization for Condition Monitoring in Ultrasonic Metal Welding
- arxiv url: http://arxiv.org/abs/2404.13278v1
- Date: Sat, 20 Apr 2024 05:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-23 19:39:25.969936
- Title: Federated Transfer Learning with Task Personalization for Condition Monitoring in Ultrasonic Metal Welding
- Title(参考訳): 超音波金属溶接における条件モニタリングのためのタスクパーソナライズによるフェデレーション伝達学習
- Authors: Ahmadreza Eslaminia, Yuquan Meng, Klara Nahrstedt, Chenhui Shao,
- Abstract要約: 本稿ではトランスファーラーニングについて述べる。
分散分散学習フレームワークでデータ機能を提供するFTLTP(Federated Task Task Architecture)。
FTL-TPフレームワークは、様々な製造アプリケーションに容易に適用できる。
- 参考スコア(独自算出の注目度): 3.079885946230076
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ultrasonic metal welding (UMW) is a key joining technology with widespread industrial applications. Condition monitoring (CM) capabilities are critically needed in UMW applications because process anomalies significantly deteriorate the joining quality. Recently, machine learning models emerged as a promising tool for CM in many manufacturing applications due to their ability to learn complex patterns. Yet, the successful deployment of these models requires substantial training data that may be expensive and time-consuming to collect. Additionally, many existing machine learning models lack generalizability and cannot be directly applied to new process configurations (i.e., domains). Such issues may be potentially alleviated by pooling data across manufacturers, but data sharing raises critical data privacy concerns. To address these challenges, this paper presents a Federated Transfer Learning with Task Personalization (FTL-TP) framework that provides domain generalization capabilities in distributed learning while ensuring data privacy. By effectively learning a unified representation from feature space, FTL-TP can adapt CM models for clients working on similar tasks, thereby enhancing their overall adaptability and performance jointly. To demonstrate the effectiveness of FTL-TP, we investigate two distinct UMW CM tasks, tool condition monitoring and workpiece surface condition classification. Compared with state-of-the-art FL algorithms, FTL-TP achieves a 5.35%--8.08% improvement of accuracy in CM in new target domains. FTL-TP is also shown to perform excellently in challenging scenarios involving unbalanced data distributions and limited client fractions. Furthermore, by implementing the FTL-TP method on an edge-cloud architecture, we show that this method is both viable and efficient in practice. The FTL-TP framework is readily extensible to various other manufacturing applications.
- Abstract(参考訳): 超音波金属溶接(UMW)は産業用途において重要な接合技術である。
プロセス異常が接合品質を著しく低下させるため、UMWアプリケーションでは条件監視(CM)機能が必要である。
近年、機械学習モデルは複雑なパターンを学習できるため、多くの製造アプリケーションにおいてCMにとって有望なツールとして登場した。
しかし、これらのモデルのデプロイを成功させるためには、膨大なトレーニングデータが必要である。
さらに、既存の機械学習モデルの多くは一般化性に欠けており、新しいプロセス構成(すなわちドメイン)に直接適用できない。
このような問題は、メーカー間でデータをプールすることで軽減される可能性があるが、データ共有はデータプライバシの重大な懸念を引き起こす。
これらの課題に対処するため,データプライバシを確保しつつ,分散学習におけるドメイン一般化機能を提供するFTL-TP(Federated Transfer Learning with Task Personalization)フレームワークを提案する。
特徴空間から統一表現を効果的に学習することにより、FTL-TPは、同様のタスクを行うクライアントに対してCMモデルを適応させることができる。
FTL-TPの有効性を実証するために,2つの異なるUMW CMタスク,ツール条件モニタリング,ワークピース表面条件分類について検討した。
最先端のFLアルゴリズムと比較して、FTL-TPは新しいターゲット領域におけるCMの精度を5.35%から8.08%向上させる。
FTL-TPはまた、不均衡なデータ分散と限られたクライアント分数を含む挑戦的なシナリオでも優れた性能を発揮する。
さらに,エッジクラウドアーキテクチャ上でのFTL-TP手法の実装により,本手法が実現可能かつ効率的に実現可能であることを示す。
FTL-TPフレームワークは、他の様々な製造アプリケーションに容易に拡張可能である。
関連論文リスト
- Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Lightweight Industrial Cohorted Federated Learning for Heterogeneous Assets [0.0]
フェデレーテッド・ラーニング(FL)は、分散機械学習(ML)モデルをトレーニングするための最も広く採用されているコラボレーティブ・ラーニング・アプローチである。
しかし、すべてのFLタスクにおいて、大きなデータ類似性や均質性は認められているため、FLは産業環境では特に設計されていない。
本稿では,コホーティングにモデルパラメータを用いる軽量産業用コホーテッドFL (licFL) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:56Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Adaptive Model Pruning and Personalization for Federated Learning over
Wireless Networks [72.59891661768177]
フェデレーション学習(FL)は、データプライバシを保護しながら、エッジデバイス間での分散学習を可能にする。
これらの課題を克服するために、部分的なモデルプルーニングとパーソナライズを備えたFLフレームワークを検討する。
このフレームワークは、学習モデルを、データ表現を学ぶためにすべてのデバイスと共有されるモデルプルーニングと、特定のデバイスのために微調整されるパーソナライズされた部分とで、グローバルな部分に分割する。
論文 参考訳(メタデータ) (2023-09-04T21:10:45Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Challenges and Opportunities of Using Transformer-Based Multi-Task
Learning in NLP Through ML Lifecycle: A Survey [0.6240603866868214]
MTL(Multi-Task Learning)は,共同学習による効率向上とパフォーマンス向上のための,有望なアプローチとして登場した。
本稿では,機械学習ライフサイクルの典型的な段階を通じて,MLLアプローチを使用する上での課題と機会について論じる。
MTLと継続学習の両方を扱えるモデルを持つことは現実的だと思います。
論文 参考訳(メタデータ) (2023-08-16T09:11:00Z) - SLoRA: Federated Parameter Efficient Fine-Tuning of Language Models [28.764782216513037]
FL(Federated Learning)は、FLエッジクライアントの分散データとプライベートデータの恩恵を受けることができる。
異種データシナリオにおけるLoRAの重要な制約を克服するSLoRAという手法を提案する。
実験の結果,SLoRAは完全微調整に匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-08-12T10:33:57Z) - SOLIS -- The MLOps journey from data acquisition to actionable insights [62.997667081978825]
本稿では,基本的なクロスプラットフォームテンソルフレームワークとスクリプト言語エンジンを使用しながら,すべての要件をサポートする統合デプロイメントパイプラインとフリー・ツー・オペレートアプローチを提案する。
しかし、このアプローチは、実際のプロダクショングレードシステムに機械学習機能を実際にデプロイするために必要な手順やパイプラインを提供していない。
論文 参考訳(メタデータ) (2021-12-22T14:45:37Z) - Federated Learning for Physical Layer Design [38.46522285374866]
Federated Learning (FL) は最近,分散学習スキームとして提案されている。
FLは集中型学習(CL)よりもコミュニケーション効率が高くプライバシーを保ちます。
本稿では,物理層設計問題に対するFLベーストレーニングの最近の進歩について論じる。
論文 参考訳(メタデータ) (2021-02-23T16:22:53Z) - EasyTransfer -- A Simple and Scalable Deep Transfer Learning Platform
for NLP Applications [65.87067607849757]
EasyTransferは自然言語処理(NLP)アプリケーションのためのディープトランスファー学習アルゴリズムを開発するためのプラットフォームである。
EasyTransfer は ModelZoo で様々な NLP モデルをサポートしている。
EasyTransferは現在Alibabaにデプロイされており、さまざまなビジネスシナリオをサポートしている。
論文 参考訳(メタデータ) (2020-11-18T18:41:27Z) - Ternary Compression for Communication-Efficient Federated Learning [17.97683428517896]
フェデレートされた学習は、プライバシ保護とセキュアな機械学習に対する潜在的なソリューションを提供する。
本稿では,第3次フェデレーション平均化プロトコル(T-FedAvg)を提案する。
その結果,提案したT-FedAvgは通信コストの低減に有効であり,非IIDデータの性能も若干向上できることがわかった。
論文 参考訳(メタデータ) (2020-03-07T11:55:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。