論文の概要: Selecting Subsets of Source Data for Transfer Learning with Applications
in Metal Additive Manufacturing
- arxiv url: http://arxiv.org/abs/2401.08715v1
- Date: Tue, 16 Jan 2024 00:14:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-18 18:11:53.063240
- Title: Selecting Subsets of Source Data for Transfer Learning with Applications
in Metal Additive Manufacturing
- Title(参考訳): 金属添加物製造におけるトランスファーラーニングのためのソースデータのサブセットの選択
- Authors: Yifan Tang, M. Rahmani Dehaghani, Pouyan Sajadi, G. Gary Wang
- Abstract要約: 本稿では,限られた対象領域データの集合に対して,ソースとターゲットデータセットの類似性に基づいて,ソースデータの適切なサブセットを見つけるための体系的手法を提案する。
提案手法は, 異なるプロセスやマシンを含む金属AM回帰タスクにおいて, TL性能を向上した, 同一領域からのソースデータの小さなサブセットを見つけることができる。
- 参考スコア(独自算出の注目度): 1.9116784879310036
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Considering data insufficiency in metal additive manufacturing (AM), transfer
learning (TL) has been adopted to extract knowledge from source domains (e.g.,
completed printings) to improve the modeling performance in target domains
(e.g., new printings). Current applications use all accessible source data
directly in TL with no regard to the similarity between source and target data.
This paper proposes a systematic method to find appropriate subsets of source
data based on similarities between the source and target datasets for a given
set of limited target domain data. Such similarity is characterized by the
spatial and model distance metrics. A Pareto frontier-based source data
selection method is developed, where the source data located on the Pareto
frontier defined by two similarity distance metrics are selected iteratively.
The method is integrated into an instance-based TL method (decision tree
regression model) and a model-based TL method (fine-tuned artificial neural
network). Both models are then tested on several regression tasks in metal AM.
Comparison results demonstrate that 1) the source data selection method is
general and supports integration with various TL methods and distance metrics,
2) compared with using all source data, the proposed method can find a small
subset of source data from the same domain with better TL performance in metal
AM regression tasks involving different processes and machines, and 3) when
multiple source domains exist, the source data selection method could find the
subset from one source domain to obtain comparable or better TL performance
than the model constructed using data from all source domains.
- Abstract(参考訳): 金属添加物製造(AM)におけるデータ不足を考慮すると、転写学習(TL)は、ソースドメイン(例えば、完成した印刷物)から知識を抽出し、ターゲットドメイン(例えば、新しい印刷物)のモデリング性能を改善する。
現在のアプリケーションは、ソースデータとターゲットデータとの類似性に関係なく、TLで直接アクセス可能なすべてのソースデータを使用する。
本稿では,限られた対象領域データの集合に対して,ソースとターゲットデータセットの類似性に基づいて,ソースデータの適切なサブセットを見つけるための体系的手法を提案する。
このような類似性は、空間的およびモデル的距離メトリクスによって特徴づけられる。
2つの類似度距離メトリクスで定義されるパレートフロンティアに位置するソースデータを反復的に選択するパレートフロンティアベースのソースデータ選択方法を開発した。
この方法は、インスタンスベースtl法(decision tree regression model)とモデルベースtl法(fine-tuned artificial neural network)に統合される。
どちらのモデルも金属AMのいくつかの回帰タスクでテストされる。
比較結果は
1) ソースデータ選択法は汎用的であり,様々なTLメソッドや距離メトリクスとの統合をサポートする。
2) すべてのソースデータと比較すると, 異なるプロセスやマシンを含む金属AM回帰タスクにおいて, TL性能が向上した同一領域からのソースデータの小さなサブセットを見つけることができる。
3)複数のソースドメインが存在する場合、ソースデータ選択手法は、ソースドメインからサブセットを見つけ出し、すべてのソースドメインのデータを使用して構築されたモデルよりも同等または優れたTL性能を得る。
関連論文リスト
- CONTRAST: Continual Multi-source Adaptation to Dynamic Distributions [42.293444710522294]
Continual Multi-source Adaptation to Dynamic Distributions (CONTRAST) は、複数のソースモデルを最適に組み合わせて動的テストデータに適応する新しい手法である。
提案手法は,ソースモデルを最適に組み合わせ,モデル更新の優先順位付けを最小限に行うことができることを示す。
論文 参考訳(メタデータ) (2024-01-04T22:23:56Z) - Multi-Source Soft Pseudo-Label Learning with Domain Similarity-based
Weighting for Semantic Segmentation [2.127049691404299]
本稿では,複数のソースデータセットを用いたセマンティックセグメンテーションのためのドメイン適応トレーニング手法について述べる。
複数のソースモデルから予測対象確率を統合することで,ソフトな擬似ラベル生成手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T05:20:36Z) - A Prototype-Oriented Clustering for Domain Shift with Source Privacy [66.67700676888629]
本稿では,PCD(Prototype-oriented Clustering with Distillation)を導入し,既存の手法の性能と適用性を向上させる。
PCDはまず、プロトタイプとデータの分布を整列することで、ソースクラスタリングモデルを構築する。
その後、ソースモデルが提供するクラスタラベルを通じてターゲットモデルに知識を蒸留し、同時にターゲットデータをクラスタ化する。
論文 参考訳(メタデータ) (2023-02-08T00:15:35Z) - Model-based Transfer Learning for Automatic Optical Inspection based on
domain discrepancy [9.039797705929363]
本研究は、モデルベースTLをドメイン類似性により適用し、ターゲットドメインとソースドメインの両方における全体的なパフォーマンスとデータ拡張を改善する。
我々の研究は、ベンチマークデータセットを用いたTLと比較してF1スコアとPR曲線が最大20%増加することを示唆している。
論文 参考訳(メタデータ) (2023-01-14T11:32:39Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Source-Free Domain Adaptation via Distribution Estimation [106.48277721860036]
ドメイン適応は、ラベル付きソースドメインから学んだ知識を、データ分散が異なるラベル付きターゲットドメインに転送することを目的としています。
近年,ソースフリードメイン適応 (Source-Free Domain Adaptation, SFDA) が注目されている。
本研究では,SFDA-DEと呼ばれる新しいフレームワークを提案し,ソース分布推定によるSFDAタスクに対処する。
論文 参考訳(メタデータ) (2022-04-24T12:22:19Z) - Multi-Source Domain Adaptation for Object Detection [52.87890831055648]
我々は、Divide-and-Merge Spindle Network (DMSN)と呼ばれる、より高速なR-CNNベースのフレームワークを提案する。
DMSNはドメイン非ネイティブを同時に強化し、識別力を維持することができる。
擬似目標部分集合の最適パラメータを近似する新しい擬似学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-30T03:17:20Z) - Unsupervised Multi-source Domain Adaptation Without Access to Source
Data [58.551861130011886]
Unsupervised Domain Adaptation (UDA)は、ラベル付きソースドメインから知識を転送することで、ラベル付きドメインの予測モデルを学ぶことを目的としている。
本稿では,ソースモデルと適切な重み付けを自動的に組み合わせ,少なくとも最良のソースモデルと同等の性能を発揮する新しい効率的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-05T10:45:12Z) - Do We Really Need to Access the Source Data? Source Hypothesis Transfer
for Unsupervised Domain Adaptation [102.67010690592011]
Unsupervised adaptUDA (UDA) は、ラベル付きソースデータセットから学んだ知識を活用して、新しいラベル付きドメインで同様のタスクを解決することを目的としている。
従来のUDAメソッドは、モデルに適応するためには、通常、ソースデータにアクセスする必要がある。
この作業は、訓練済みのソースモデルのみが利用できる実践的な環境に取り組み、ソースデータなしでそのようなモデルを効果的に活用してUDA問題を解決する方法に取り組みます。
論文 参考訳(メタデータ) (2020-02-20T03:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。