論文の概要: Semi-supervised CAPP Transformer Learning via Pseudo-labeling
- arxiv url: http://arxiv.org/abs/2602.01419v1
- Date: Sun, 01 Feb 2026 19:51:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.774816
- Title: Semi-supervised CAPP Transformer Learning via Pseudo-labeling
- Title(参考訳): 擬似ラベルを用いた半教師付きCAPP変換器学習
- Authors: Dennis Gross, Helge Spieker, Arnaud Gotlieb, Emmanuel Stathatos, Panorios Benardos, George-Christopher Vosniakos,
- Abstract要約: 手動ラベリングを使わずにトランスフォーマーベースのCAPPトランスフォーマーモデルを改善するための半教師付き学習手法を提案する。
利用可能なトランスフォーマー動作データに基づいてトレーニングされたオラクルは、見えない部分からの正確な予測をフィルタリングし、ワンショットの再トレーニングに使用される。
- 参考スコア(独自算出の注目度): 3.6799158613885066
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-level Computer-Aided Process Planning (CAPP) generates manufacturing process plans from part specifications. It suffers from limited dataset availability in industry, reducing model generalization. We propose a semi-supervised learning approach to improve transformer-based CAPP transformer models without manual labeling. An oracle, trained on available transformer behaviour data, filters correct predictions from unseen parts, which are then used for one-shot retraining. Experiments on small-scale datasets with simulated ground truth across the full data distribution show consistent accuracy gains over baselines, demonstrating the method's effectiveness in data-scarce manufacturing environments.
- Abstract(参考訳): 高レベルコンピュータ支援プロセス計画(CAPP)は、部品仕様から製造プロセス計画を生成する。
業界におけるデータセットの可用性の制限に悩まされており、モデルの一般化が削減されている。
手動ラベリングを使わずにトランスフォーマーベースのCAPPトランスフォーマーモデルを改善するための半教師付き学習手法を提案する。
利用可能なトランスフォーマー動作データに基づいてトレーニングされたオラクルは、見えない部分からの正確な予測をフィルタリングし、ワンショットの再トレーニングに使用される。
データ分布全体をシミュレーションした小規模なデータセットの実験では、ベースラインよりも一貫した精度が向上し、この手法がデータスカース製造環境において有効であることを実証している。
関連論文リスト
- Can Small Training Runs Reliably Guide Data Curation? Rethinking Proxy-Model Practice [109.9635246405237]
データ品質に関する実験結果が、ハイパーパラメータのトレーニングに微調整を加えることで、反転できることを示す。
評価プロトコルに簡単なパッチを導入し、プロキシモデルのトレーニングに学習率を削減した。
実験により,データキュレーションの4つの重要な次元をカバーする23種類のデータレシピに対して,このアプローチを検証した。
論文 参考訳(メタデータ) (2025-12-30T23:02:44Z) - Challenging Gradient Boosted Decision Trees with Tabular Transformers for Fraud Detection at Booking.com [3.2750365257196803]
自己監視学習(SSL)によって強化されたトランスフォーマーベースのニューラルネットワークは、さまざまなドメインで前例のないパフォーマンスを示している。
本稿では,電子商取引における典型的な課題である不正検出において,表型変換器を用いたGBDTに挑戦することを目的とする。
本研究は, 実生活における不正検出システムにおいてしばしば発生する選択バイアスの問題に起因し, トラフィックのサブセットがラベル付けされる生産システムに影響を及ぼす。
論文 参考訳(メタデータ) (2024-05-22T14:38:48Z) - FaultFormer: Pretraining Transformers for Adaptable Bearing Fault Classification [7.136205674624813]
本稿では,トランスモデルに基づく自己教師型事前学習および微調整フレームワークを提案する。
特に、最先端のアキュラシーに到達するための異なるトークン化とデータ拡張戦略について検討する。
このパラダイムでは、異なるベアリング、障害、機械からラベル付けされていないデータに基づいてモデルを事前訓練し、新しいデータスカースアプリケーションに素早くデプロイすることが可能になる。
論文 参考訳(メタデータ) (2023-12-04T22:51:02Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z) - Towards Data-Efficient Detection Transformers [77.43470797296906]
我々は、ほとんどの検出トランスフォーマーが、小さなデータセットで大きなパフォーマンス低下に悩まされていることを示す。
我々はデータ効率に影響を与える要因を、データ効率のRCNNから代表DETRへのステップバイステップ遷移によって実証的に分析する。
本稿では,よりリッチな監視とデータ効率向上を目的とした,シンプルながら効果的なラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:56:34Z) - Development of Deep Transformer-Based Models for Long-Term Prediction of
Transient Production of Oil Wells [9.832272256738452]
本稿では,油井の過渡生産に関するデータ駆動型モデリング手法を提案する。
油井の様々なパラメータからなる多変量時系列に基づいて訓練された変圧器ベースニューラルネットワークを適用した。
複素過渡的な油田レベルのパターンをシミュレートするために,複数井戸に対するトランスフォーマーアーキテクチャに基づく単一井戸モデルを一般化する。
論文 参考訳(メタデータ) (2021-10-12T15:00:45Z) - Discriminative and Generative Transformer-based Models For Situation
Entity Classification [8.029049649310211]
我々は、状況エンティティ(SE)分類タスクを、利用可能なトレーニングデータの量に応じて再検討する。
変換器を用いた変分オートエンコーダを用いて文を低次元の潜在空間に符号化する。
論文 参考訳(メタデータ) (2021-09-15T17:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。