論文の概要: A Memory-Augmented LLM-Driven Method for Autonomous Merging of 3D Printing Work Orders
- arxiv url: http://arxiv.org/abs/2504.02509v1
- Date: Thu, 03 Apr 2025 11:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 17:23:47.938363
- Title: A Memory-Augmented LLM-Driven Method for Autonomous Merging of 3D Printing Work Orders
- Title(参考訳): 3次元印刷作業順序の自動マージのためのメモリ拡張LDM駆動方式
- Authors: Yuhao Liu, Maolin Yang, Pingyu Jiang,
- Abstract要約: 3Dプリンティングオーダーの効率の良いマージは、製造ラインの処理効率を大幅に向上させることができる。
本稿では,大規模言語モデル(LLM)による作業順序の自律的統合について述べる。
自己記憶学習戦略を取り入れることにより、自律的なオーダーマージのためのインテリジェントエージェントを構築することにより、オーダ割り当ての精度と精度が向上する。
- 参考スコア(独自算出の注目度): 5.176844852240502
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rapid development of 3D printing, the demand for personalized and customized production on the manufacturing line is steadily increasing. Efficient merging of printing workpieces can significantly enhance the processing efficiency of the production line. Addressing the challenge, a Large Language Model (LLM)-driven method is established in this paper for the autonomous merging of 3D printing work orders, integrated with a memory-augmented learning strategy. In industrial scenarios, both device and order features are modeled into LLM-readable natural language prompt templates, and develop an order-device matching tool along with a merging interference checking module. By incorporating a self-memory learning strategy, an intelligent agent for autonomous order merging is constructed, resulting in improved accuracy and precision in order allocation. The proposed method effectively leverages the strengths of LLMs in industrial applications while reducing hallucination.
- Abstract(参考訳): 3Dプリンティングの急速な発展に伴い、製造ラインでのパーソナライズおよびカスタマイズされた生産に対する需要は着実に増加している。
印刷ワークの効率の良いマージは、製造ラインの処理効率を大幅に向上させることができる。
本論文では,大規模言語モデル(LLM)による3Dプリンティング作業順序の自律的統合と,メモリ拡張学習戦略の統合について述べる。
産業シナリオでは、デバイス機能と順序機能はLLM対応の自然言語プロンプトテンプレートにモデル化され、命令デバイスマッチングツールとマージ干渉チェックモジュールが開発される。
自己記憶学習戦略を取り入れることにより、自律的なオーダーマージのためのインテリジェントエージェントを構築することにより、オーダ割り当ての精度と精度が向上する。
提案手法は, 幻覚を低減しつつ, 産業応用におけるLCMの強度を効果的に活用する。
関連論文リスト
- Self-Steering Language Models [113.96916935955842]
DisCIPLは、"セルフステアリング(self-steering)"言語モデルのメソッドである。
DisCIPLはPlannerモデルを使用してタスク固有の推論プログラムを生成する。
我々の研究は、高度に並列化されたモンテカルロ推論戦略の設計空間を開く。
論文 参考訳(メタデータ) (2025-04-09T17:54:22Z) - Quantizing Large Language Models for Code Generation: A Differentiated Replication [51.85505914274633]
大規模言語モデル(LLM)は、コード生成において印象的な能力を示しており、特に自然言語で記述された要求を自動的に実装する。
LLMはメモリ(そして結果として炭素)のフットプリントに重大な課題をもたらす。
LLM量子化の新しいフロンティアは4ビット精度であり、平均メモリフットプリントが70%減少する。
論文 参考訳(メタデータ) (2025-03-10T09:26:08Z) - 3D-Grounded Vision-Language Framework for Robotic Task Planning: Automated Prompt Synthesis and Supervised Reasoning [2.6670748466660523]
視覚言語モデル(VLM)はシーン理解と知覚タスクにおいて顕著な成功を収めた。
VLMにはロバストな3Dシーンのローカライズ機能がなく、ロボット操作の精度を制限している。
本稿では,2次元画像を点雲にマッピングすることで,2次元プロンプト合成モジュールを統合し,VLM出力を監視するための小さな言語モデル(SLM)を組み込む新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-13T02:40:19Z) - Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - LLM-3D Print: Large Language Models To Monitor and Control 3D Printing [6.349503549199403]
産業4.0は、デジタル化を推進し、添加性製造(AM)へのパラダイムシフトによって製造に革命をもたらした。
重要なAM技術であるFDMは、層間押出による最小限の材料廃棄物による、高度にカスタマイズされたコスト効率の高い製品の作成を可能にする。
本稿では,3Dプリンタとともに学習済みのLarge Language Models(LLM)を利用して,印刷欠陥の検出と対処を行うプロセス監視・制御フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-26T14:38:19Z) - Incorporating Large Language Models into Production Systems for Enhanced Task Automation and Flexibility [2.3999111269325266]
本稿では,大規模言語モデル(LLM)エージェントを自動生産システムに統合するための新しいアプローチを提案する。
自動化ピラミッドに基づいた階層的なフレームワーク内での運用運用の組織化。
これにより、プロダクションプロセスのオーケストレーションのためのスケーラブルでフレキシブルな基盤が実現できます。
論文 参考訳(メタデータ) (2024-07-11T14:34:43Z) - Adaptive Draft-Verification for Efficient Large Language Model Decoding [24.347886232342862]
大規模言語モデル(LLM)デコードでは、与えられたコンテキストに基づいてトークンのシーケンスを生成する。
典型的な自己回帰復号法では、生成されたトークンごとに別の前方通過が必要となる。
微調整を必要とせずにLDMデコーディングを高速化するADEDを導入する。
論文 参考訳(メタデータ) (2024-06-27T22:20:39Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Towards autonomous system: flexible modular production system enhanced
with large language model agents [0.0]
本稿では,大規模言語モデル(LLM),デジタルツイン,産業自動化システムを組み合わせた新しいフレームワークを提案する。
実装済みのプロトタイプが未定義のタスクをどのように処理し、運用プロセスを計画し、操作を実行するかを示します。
論文 参考訳(メタデータ) (2023-04-28T09:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。