論文の概要: A Domain Adaptation of Large Language Models for Classifying Mechanical Assembly Components
- arxiv url: http://arxiv.org/abs/2505.01627v1
- Date: Fri, 02 May 2025 23:32:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.197926
- Title: A Domain Adaptation of Large Language Models for Classifying Mechanical Assembly Components
- Title(参考訳): 機械組立部品分類のための大規模言語モデルのドメイン適応
- Authors: Fatemeh Elhambakhsh, Daniele Grandi, Hyunwoong Ko,
- Abstract要約: 機能モデリングにより、設計者は特定の構造の詳細が決定される前に製品機能について推論することができる。
関数ベースの設計の有効性は、よく構造化され包括的な機能データがないためにしばしば妨げられる。
本研究では,機械組立部品の機能の自動分類にファインチューニングを用いた新しいLLMベースのドメイン適応(DA)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.9134277125744795
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The conceptual design phase represents a critical early stage in the product development process, where designers generate potential solutions that meet predefined design specifications based on functional requirements. Functional modeling, a foundational aspect of this phase, enables designers to reason about product functions before specific structural details are determined. A widely adopted approach to functional modeling is the Function-Behavior-Structure (FBS) framework, which supports the transformation of functional intent into behavioral and structural descriptions. However, the effectiveness of function-based design is often hindered by the lack of well-structured and comprehensive functional data. This scarcity can negatively impact early design decision-making and hinder the development of accurate behavioral models. Recent advances in Large Language Models (LLMs), such as those based on GPT architectures, offer a promising avenue to address this gap. LLMs have demonstrated significant capabilities in language understanding and natural language processing (NLP), making them suitable for automated classification tasks. This study proposes a novel LLM-based domain adaptation (DA) framework using fine-tuning for the automated classification of mechanical assembly parts' functions. By fine-tuning LLMs on domain-specific datasets, the traditionally manual and subjective process of function annotation can be improved in both accuracy and consistency. A case study demonstrates fine-tuning GPT-3.5 Turbo on data from the Oregon State Design Repository (OSDR), and evaluation on the A Big CAD (ABC) dataset shows that the domain-adapted LLM can generate high-quality functional data, enhancing the semantic representation of mechanical parts and supporting more effective design exploration in early-phase engineering.
- Abstract(参考訳): 概念設計フェーズは製品開発プロセスにおける重要な初期段階を表しており、デザイナは機能要件に基づいた事前定義された設計仕様を満たす潜在的なソリューションを生成する。
このフェーズの基本的側面である機能モデリングにより、設計者は特定の構造的詳細が決定される前に製品機能について考えることができる。
機能モデリングに対する広く採用されているアプローチはFBS(Function-Behavior-Structure)フレームワークである。
しかし、機能に基づく設計の有効性は、よく構造化され包括的な機能データがないためにしばしば妨げられる。
この不足は初期の設計決定に悪影響を及ぼし、正確な行動モデルの開発を妨げる可能性がある。
GPTアーキテクチャをベースとしたLLM(Large Language Models)の最近の進歩は、このギャップに対処するための有望な道筋を提供する。
LLMは言語理解と自然言語処理(NLP)において重要な機能を示しており、自動分類タスクに適している。
本研究では,機械組立部品の機能の自動分類にファインチューニングを用いた新しいLLMベースのドメイン適応(DA)フレームワークを提案する。
LLMをドメイン固有のデータセットに微調整することで、従来の手動および主観的な関数アノテーションのプロセスは正確性と一貫性の両方で改善できる。
ケーススタディでは,オレゴン・ステート・デザイン・リポジトリ(OSDR)のデータに基づいてGPT-3.5ターボを微調整し,A Big CAD(ABC)データセットの評価を行った。
関連論文リスト
- Cliqueformer: Model-Based Optimization with Structured Transformers [102.55764949282906]
大規模なニューラルネットワークは予測タスクに優れるが、タンパク質工学や材料発見といった設計問題への応用には、オフラインモデルベース最適化(MBO)の問題を解決する必要がある。
機能的グラフィカルモデル(FGM)を用いてブラックボックス関数の構造を学習するトランスフォーマーベースのアーキテクチャであるCliqueformerを提案する。
化学および遺伝子設計タスクを含む様々な領域において、Cliqueformerは既存の方法よりも優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-17T00:35:47Z) - A Large Language Model and Denoising Diffusion Framework for Targeted Design of Microstructures with Commands in Natural Language [0.0]
自然言語処理(NLP)、大言語モデル(LLM)、拡散確率モデル(DDPM)を統合したフレームワークを提案する。
我々のフレームワークは、事前訓練されたLLMによって駆動されるコンテキストデータ拡張を用いて、多様なマイクロ構造記述子のデータセットを生成し、拡張する。
再学習されたNERモデルは、ユーザが提供する自然言語入力から関連するマイクロ構造記述子を抽出し、DDPMによってターゲットとなる機械的特性とトポロジ的特徴を持つマイクロ構造を生成する。
論文 参考訳(メタデータ) (2024-09-22T14:45:22Z) - Large Language Model Agent as a Mechanical Designer [7.136205674624813]
本研究では、FEMモジュールと協調して事前訓練された大規模言語モデル(LLM)を利用して、構造設計を自律的に生成、評価、洗練するフレームワークを提案する。
LLMはドメイン固有の微調整なしで動作し、設計候補を提案し、FEMから派生した性能指標を解釈し、構造的な音響修正を適用する。
NSGA-II (Non-Sorting Genetic Algorithm II) と比較して,本手法はより高速に収束し,より少ないFEM評価を実現する。
論文 参考訳(メタデータ) (2024-04-26T16:41:24Z) - Fine-Tuning Enhances Existing Mechanisms: A Case Study on Entity
Tracking [53.66999416757543]
本研究では,微調整が言語モデルに実装された内部メカニズムに与える影響について検討する。
微調整はモデルの機械的操作を変えるのではなく、強化する。
論文 参考訳(メタデータ) (2024-02-22T18:59:24Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Design Space Exploration and Explanation via Conditional Variational
Autoencoders in Meta-model-based Conceptual Design of Pedestrian Bridges [52.77024349608834]
本稿では,条件付き変分オートエンコーダ(CVAE)による人間設計者向上のための性能駆動型設計探索フレームワークを提案する。
CVAEはスイスの歩行者橋の合成例18万件で訓練されている。
論文 参考訳(メタデータ) (2022-11-29T17:28:31Z) - Autoregressive Structured Prediction with Language Models [73.11519625765301]
本稿では, PLM を用いた自己回帰的手法を用いて, モデル構造を行動列として記述する。
我々のアプローチは、私たちが見てきた全ての構造化予測タスクにおいて、新しい最先端を実現する。
論文 参考訳(メタデータ) (2022-10-26T13:27:26Z) - Explainable AI for Engineering Design: A Unified Approach of Systems Engineering and Component- Based Deep Learning Demonstrated by Energy- Efficient Building Design [0.8265473560266577]
機械学習(ML)による部分的コンポーネントモデル作成のためのコンポーネントベースアプローチを提案する。
このコンポーネントベースのアプローチは、ディープラーニングをシステム、エンジニアリング(SE)と整合させる
アプローチは、モデル構造をシステム工学とドメイン知識の工学的手法に適応させる。
論文 参考訳(メタデータ) (2021-08-30T07:20:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。