論文の概要: A Memory-Augmented LLM-Driven Method for Autonomous Merging of 3D Printing Work Orders
- arxiv url: http://arxiv.org/abs/2504.02509v1
- Date: Thu, 03 Apr 2025 11:50:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:55:33.628081
- Title: A Memory-Augmented LLM-Driven Method for Autonomous Merging of 3D Printing Work Orders
- Title(参考訳): 3次元印刷作業順序の自動マージのためのメモリ拡張LDM駆動方式
- Authors: Yuhao Liu, Maolin Yang, Pingyu Jiang,
- Abstract要約: 3Dプリンティングオーダーの効率の良いマージは、製造ラインの処理効率を大幅に向上させることができる。
本稿では,大規模言語モデル(LLM)による作業順序の自律的統合について述べる。
自己記憶学習戦略を取り入れることにより、自律的なオーダーマージのためのインテリジェントエージェントを構築することにより、オーダ割り当ての精度と精度が向上する。
- 参考スコア(独自算出の注目度): 5.176844852240502
- License:
- Abstract: With the rapid development of 3D printing, the demand for personalized and customized production on the manufacturing line is steadily increasing. Efficient merging of printing workpieces can significantly enhance the processing efficiency of the production line. Addressing the challenge, a Large Language Model (LLM)-driven method is established in this paper for the autonomous merging of 3D printing work orders, integrated with a memory-augmented learning strategy. In industrial scenarios, both device and order features are modeled into LLM-readable natural language prompt templates, and develop an order-device matching tool along with a merging interference checking module. By incorporating a self-memory learning strategy, an intelligent agent for autonomous order merging is constructed, resulting in improved accuracy and precision in order allocation. The proposed method effectively leverages the strengths of LLMs in industrial applications while reducing hallucination.
- Abstract(参考訳): 3Dプリンティングの急速な発展に伴い、製造ラインでのパーソナライズおよびカスタマイズされた生産に対する需要は着実に増加している。
印刷ワークの効率の良いマージは、製造ラインの処理効率を大幅に向上させることができる。
本論文では,大規模言語モデル(LLM)による3Dプリンティング作業順序の自律的統合と,メモリ拡張学習戦略の統合について述べる。
産業シナリオでは、デバイス機能と順序機能はLLM対応の自然言語プロンプトテンプレートにモデル化され、命令デバイスマッチングツールとマージ干渉チェックモジュールが開発される。
自己記憶学習戦略を取り入れることにより、自律的なオーダーマージのためのインテリジェントエージェントを構築することにより、オーダ割り当ての精度と精度が向上する。
提案手法は, 幻覚を低減しつつ, 産業応用におけるLCMの強度を効果的に活用する。
関連論文リスト
- 3D-Grounded Vision-Language Framework for Robotic Task Planning: Automated Prompt Synthesis and Supervised Reasoning [2.6670748466660523]
視覚言語モデル(VLM)はシーン理解と知覚タスクにおいて顕著な成功を収めた。
VLMにはロバストな3Dシーンのローカライズ機能がなく、ロボット操作の精度を制限している。
本稿では,2次元画像を点雲にマッピングすることで,2次元プロンプト合成モジュールを統合し,VLM出力を監視するための小さな言語モデル(SLM)を組み込む新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-13T02:40:19Z) - LLM-AutoDiff: Auto-Differentiate Any LLM Workflow [58.56731133392544]
自動プロンプト工学(APE)のための新しいフレームワーク LLM-AutoDiff について紹介する。
LLMs-AutoDiffは、各テキスト入力をトレーニング可能なパラメータとして扱い、フリーズした後方エンジンを使用して、テキスト勾配に対するフィードバック・アキンを生成する。
精度とトレーニングコストの両方において、既存のテキスト勾配ベースラインを一貫して上回ります。
論文 参考訳(メタデータ) (2025-01-28T03:18:48Z) - Interactive and Expressive Code-Augmented Planning with Large Language Models [62.799579304821826]
大きな言語モデル(LLM)は、常識的推論と対話的な意思決定において強力な能力を示す。
近年,制御フローなどのコード・アジャセント技術を用いてLCM出力を構造化し,計画性能を向上させる技術が提案されている。
完全コード表現で動的なLEM計画手法であるREPL-Planを提案する。
論文 参考訳(メタデータ) (2024-11-21T04:23:17Z) - Progressive Mixed-Precision Decoding for Efficient LLM Inference [49.05448842542558]
我々は,デコーディングのメモリバウンドネスに対処するために,プログレッシブ・ミックス・プレシジョン・デコーディング(PMPD)を導入する。
PMPDはfp16モデルの行列ベクトル乗算において1.4$-$12.2$times$ Speedupを達成する。
我々の手法は、fp16モデルよりも3.8$-$8.0$times$、均一量子化アプローチよりも1.54$times$のスループット向上をもたらす。
論文 参考訳(メタデータ) (2024-10-17T11:46:33Z) - LLM-3D Print: Large Language Models To Monitor and Control 3D Printing [6.349503549199403]
産業4.0は、デジタル化を推進し、添加性製造(AM)へのパラダイムシフトによって製造に革命をもたらした。
重要なAM技術であるFDMは、層間押出による最小限の材料廃棄物による、高度にカスタマイズされたコスト効率の高い製品の作成を可能にする。
本稿では,3Dプリンタとともに学習済みのLarge Language Models(LLM)を利用して,印刷欠陥の検出と対処を行うプロセス監視・制御フレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-26T14:38:19Z) - Incorporating Large Language Models into Production Systems for Enhanced Task Automation and Flexibility [2.3999111269325266]
本稿では,大規模言語モデル(LLM)エージェントを自動生産システムに統合するための新しいアプローチを提案する。
自動化ピラミッドに基づいた階層的なフレームワーク内での運用運用の組織化。
これにより、プロダクションプロセスのオーケストレーションのためのスケーラブルでフレキシブルな基盤が実現できます。
論文 参考訳(メタデータ) (2024-07-11T14:34:43Z) - Adaptive Draft-Verification for Efficient Large Language Model Decoding [24.347886232342862]
大規模言語モデル(LLM)デコードでは、与えられたコンテキストに基づいてトークンのシーケンスを生成する。
典型的な自己回帰復号法では、生成されたトークンごとに別の前方通過が必要となる。
微調整を必要とせずにLDMデコーディングを高速化するADEDを導入する。
論文 参考訳(メタデータ) (2024-06-27T22:20:39Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM Fine-Tuning: A Benchmark [166.40879020706151]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Towards autonomous system: flexible modular production system enhanced
with large language model agents [0.0]
本稿では,大規模言語モデル(LLM),デジタルツイン,産業自動化システムを組み合わせた新しいフレームワークを提案する。
実装済みのプロトタイプが未定義のタスクをどのように処理し、運用プロセスを計画し、操作を実行するかを示します。
論文 参考訳(メタデータ) (2023-04-28T09:42:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。