論文の概要: Comparison of Transfer Learning based Additive Manufacturing Models via
A Case Study
- arxiv url: http://arxiv.org/abs/2305.11181v1
- Date: Wed, 17 May 2023 00:29:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-22 17:56:24.922027
- Title: Comparison of Transfer Learning based Additive Manufacturing Models via
A Case Study
- Title(参考訳): 移動学習に基づく付加生産モデルの比較 : 事例研究による検討
- Authors: Yifan Tang, M. Rahmani Dehaghani, G. Gary Wang
- Abstract要約: 本稿では,金属AM製品に関するオープンソースデータセットに基づくケーススタディについて述べる。
5つのTL手法が決定木回帰(DTR)と人工知能ニューラルネットワーク(ANN)と統合され、6つのTLベースモデルが構築される。
これらの比較は応用TL法の性能を定量化するために用いられ、類似性、トレーニングデータサイズ、データ前処理の観点から議論される。
- 参考スコア(独自算出の注目度): 3.759936323189418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning (TL) based additive manufacturing (AM) modeling is an
emerging field to reuse the data from historical products and mitigate the data
insufficiency in modeling new products. Although some trials have been
conducted recently, the inherent challenges of applying TL in AM modeling are
seldom discussed, e.g., which source domain to use, how much target data is
needed, and whether to apply data preprocessing techniques. This paper aims to
answer those questions through a case study defined based on an open-source
dataset about metal AM products. In the case study, five TL methods are
integrated with decision tree regression (DTR) and artificial neural network
(ANN) to construct six TL-based models, whose performances are then compared
with the baseline DTR and ANN in a proposed validation framework. The
comparisons are used to quantify the performance of applied TL methods and are
discussed from the perspective of similarity, training data size, and data
preprocessing. Finally, the source AM domain with larger qualitative similarity
and a certain range of target-to-source training data size ratio are
recommended. Besides, the data preprocessing should be performed carefully to
balance the modeling performance and the performance improvement due to TL.
- Abstract(参考訳): トランスファーラーニング(TL)に基づく付加的製造(AM)モデリングは、過去の製品からのデータを再利用し、新しい製品のモデリングにおいてデータ不足を緩和する新たな分野である。
近年、いくつかの試験が実施されているが、AMモデリングにTLを適用するという固有の課題は、どのソースドメインを使用するか、どれくらいのターゲットデータが必要か、データ前処理技術を適用するかどうかなど、ほとんど議論されていない。
本稿では,金属AM製品に関するオープンソースデータセットに基づいたケーススタディを通じて,これらの質問に答えることを目的とする。
ケーススタディでは,5つのTL手法が決定木回帰(DTR)と人工ニューラルネットワーク(ANN)と統合され,その性能をベースラインのDTRとANNと比較する6つのTLベースモデルを構築する。
これらの比較は応用TL法の性能を定量化するために用いられ、類似性、トレーニングデータサイズ、データ前処理の観点から議論される。
最後に、質的類似度が大きいソースAMドメインと一定範囲のトレーニングデータサイズ比を推奨する。
さらに、TLによるモデリング性能と性能改善のバランスをとるために、データ前処理を慎重に行う必要がある。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - REFINE on Scarce Data: Retrieval Enhancement through Fine-Tuning via Model Fusion of Embedding Models [14.023953508288628]
検索拡張生成(RAG)パイプラインは、質問応答(QA)などのタスクで一般的に使用される。
本稿では,利用可能な文書から合成データを生成する新しい手法であるREFINEを提案する。
論文 参考訳(メタデータ) (2024-10-16T08:43:39Z) - Fine-Tuning or Fine-Failing? Debunking Performance Myths in Large Language Models [0.8399688944263842]
大きな言語モデル(LLM)は、入力クエリから人間のようなテキストを理解し、生成する能力を持つ。
本研究では、この概念を、レトリーバル拡張生成(RAG)パイプライン内のLLMの統合に拡張する。
データ抽出と文脈理解における微調整がLLMの能力に与える影響を評価する。
論文 参考訳(メタデータ) (2024-06-17T04:35:17Z) - Data Shapley in One Training Run [88.59484417202454]
Data Shapleyは、機械学習コンテキストにおけるデータのコントリビューションに寄与するための、原則化されたフレームワークを提供する。
既存のアプローチでは、計算集約的な異なるデータサブセット上の再学習モデルが必要である。
本稿では、対象とするデータモデルに対するスケーラブルなデータ属性を提供することにより、これらの制限に対処するIn-Run Data Shapleyを紹介する。
論文 参考訳(メタデータ) (2024-06-16T17:09:24Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Scaling Relationship on Learning Mathematical Reasoning with Large
Language Models [75.29595679428105]
本研究では,事前学習損失,教師付きデータ量,拡張データ量が教師付きLDMの推論性能に与える影響について検討する。
複数のモデルからの拒絶サンプルは、LLaMA-7BをGSM8Kの49.3%の精度に押し上げ、監督された微調整(SFT)の精度を35.9%上回る結果となった。
論文 参考訳(メタデータ) (2023-08-03T15:34:01Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Imputing Knowledge Tracing Data with Subject-Based Training via LSTM
Variational Autoencoders Frameworks [6.24828623162058]
我々は,行数分割の代わりに,学生IDによるデータ分割とインプットを行うために,主観的学習手法を採用した。
我々は既存の2つの深い生成フレームワーク、すなわち変分オートエンコーダ(VAE)と変分オートエンコーダ(LVAE)を活用している。
LSTM-VAE と LSTM-LVAE から生成したデータにより,元のモデルの性能を約50%向上できることを示す。
論文 参考訳(メタデータ) (2023-02-24T21:56:03Z) - Model-based Transfer Learning for Automatic Optical Inspection based on
domain discrepancy [9.039797705929363]
本研究は、モデルベースTLをドメイン類似性により適用し、ターゲットドメインとソースドメインの両方における全体的なパフォーマンスとデータ拡張を改善する。
我々の研究は、ベンチマークデータセットを用いたTLと比較してF1スコアとPR曲線が最大20%増加することを示唆している。
論文 参考訳(メタデータ) (2023-01-14T11:32:39Z) - Reconstructing Training Data from Diverse ML Models by Ensemble
Inversion [8.414622657659168]
モデルインバージョン(MI)は、学習された機械学習(ML)モデルへのアクセスを敵が悪用するものであり、研究の注目を集めている。
本研究では,訓練されたモデルのアンサンブルに制約されたジェネレータを訓練することにより,元のトレーニングデータの分布を推定するアンサンブル変換手法を提案する。
データセットを使わずに高品質な結果が得られ、想定されるトレーニングデータに類似した補助データセットを利用することで、結果がどう改善されるかを示す。
論文 参考訳(メタデータ) (2021-11-05T18:59:01Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。