論文の概要: Towards Foundational AI Models for Additive Manufacturing: Language
Models for G-Code Debugging, Manipulation, and Comprehension
- arxiv url: http://arxiv.org/abs/2309.02465v1
- Date: Mon, 4 Sep 2023 21:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 18:06:23.392175
- Title: Towards Foundational AI Models for Additive Manufacturing: Language
Models for G-Code Debugging, Manipulation, and Comprehension
- Title(参考訳): 付加生産のための基礎的AIモデルに向けて:Gコードのデバッグ、操作、理解のための言語モデル
- Authors: Anushrut Jignasu, Kelly Marshall, Baskar Ganapathysubramanian, Aditya
Balu, Chinmay Hegde, Adarsh Krishnamurthy
- Abstract要約: 3Dプリンティングは、デジタルモデルから物理的オブジェクトを作成できる革命的な技術である。
G-codeは低レベルの数値制御言語で、3Dプリンタに物質を移動・放出する方法を指示する。
G-codeは、G-codeフォーマットと印刷する部分の幾何学の統語的で意味的な理解を必要とする、困難なタスクである。
- 参考スコア(独自算出の注目度): 19.651885111151497
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D printing or additive manufacturing is a revolutionary technology that
enables the creation of physical objects from digital models. However, the
quality and accuracy of 3D printing depend on the correctness and efficiency of
the G-code, a low-level numerical control programming language that instructs
3D printers how to move and extrude material. Debugging G-code is a challenging
task that requires a syntactic and semantic understanding of the G-code format
and the geometry of the part to be printed. In this paper, we present the first
extensive evaluation of six state-of-the-art foundational large language models
(LLMs) for comprehending and debugging G-code files for 3D printing. We design
effective prompts to enable pre-trained LLMs to understand and manipulate
G-code and test their performance on various aspects of G-code debugging and
manipulation, including detection and correction of common errors and the
ability to perform geometric transformations. We analyze their strengths and
weaknesses for understanding complete G-code files. We also discuss the
implications and limitations of using LLMs for G-code comprehension.
- Abstract(参考訳): 3Dプリンティングまたは添加物製造は、デジタルモデルから物理的オブジェクトを作成できる革命的な技術である。
しかし、3dプリンティングの品質と精度は、3dプリンタの素材の移動と押出の仕方を指示する低レベルの数値制御プログラミング言語g-codeの正確性と効率に依存する。
g-codeのデバッグは、g-codeフォーマットと印刷すべき部分の形状を構文的かつ意味的に理解する必要がある、難しいタスクである。
本稿では,3DプリンティングのためのG-codeファイルのコンパイルとデバッギングのための6つの最先端基盤言語モデル (LLM) の広範な評価を行う。
我々は,事前学習したllmがgコードを理解し,操作できるように効果的なプロンプトを設計し,共通エラーの検出と修正,幾何変換を行う機能など,gコードデバッグと操作のさまざまな面でその性能をテストする。
完全なg-codeファイルを理解するための強みと弱みを分析する。
また、G-code 理解に LLM を用いることの意義と限界についても論じる。
関連論文リスト
- Generating CAD Code with Vision-Language Models for 3D Designs [6.532952167132679]
CADCodeVerifyはCADコードから生成された3Dオブジェクトを反復的に検証し、改善するための新しいアプローチである。
提案手法は,視覚言語モデルに一連の検証質問の生成と回答を促すことで,改善的なフィードバックを生成する。
その結果,CADCodeVerifyは視覚的フィードバックの提供,3Dオブジェクトの構造の向上,コンパイルプログラムの成功率の向上などにより,VLMの性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-10-07T02:44:50Z) - Slice-100K: A Multimodal Dataset for Extrusion-based 3D Printing [16.931392391565435]
Gコード(Geometric code)またはRS-274は、最も広く使われているコンピュータ数値制御(CNC)および3Dプリンティング言語である。
現在、加法製造用のGコードファイルとともに、キュレートされたCADモデルの大規模なリポジトリは存在しない。
本稿では,10000以上のGコードファイルからなる最初期のデータセットであるSLICE-100KとCADモデルについて述べる。
論文 参考訳(メタデータ) (2024-07-04T22:52:25Z) - VP-LLM: Text-Driven 3D Volume Completion with Large Language Models through Patchification [56.211321810408194]
大規模言語モデル(LLM)はマルチモーダル理解および生成タスクにおいて大きな可能性を示している。
本稿では,LLMを利用して条件付き3D補完を行うVolume Patch LLM(VP-LLM)を提案する。
以上の結果から,LLMが複雑なテキスト命令を解釈し,3Dオブジェクトを理解する能力は,最先端の拡散に基づく3Dコンプリートモデルに勝るものであることが示唆された。
論文 参考訳(メタデータ) (2024-06-08T18:17:09Z) - Decoding at the Speed of Thought: Harnessing Parallel Decoding of Lexical Units for LLMs [57.27982780697922]
大規模言語モデルは、自然言語の理解と生成において例外的な能力を示した。
しかし、それらの生成速度は、その復号過程の本質的にシーケンシャルな性質によって制限される。
本稿では,データ駆動方式で実装された新しいデコーディング手法であるLexical Unit Decodingを紹介する。
論文 参考訳(メタデータ) (2024-05-24T04:35:13Z) - CodeGRAG: Bridging the Gap between Natural Language and Programming Language via Graphical Retrieval Augmented Generation [58.84212778960507]
我々は,LLMの性能を高めるため,グラフィカル検索拡張コード生成フレームワークであるCodeGRAGを提案する。
CodeGRAGは、制御フローとデータフローに基づいて、コードブロックのグラフィカルなビューを構築し、プログラミング言語と自然言語のギャップを埋める。
ハードメタグラフプロンプト、ソフトプロンプト技術、事前訓練されたGNN専門家の目的の有効性を検証するために、C++言語とピソン言語の両方を含む4つのデータセットで様々な実験と改善が行われた。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保存するために追加情報を埋め込む。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - GPT4Point: A Unified Framework for Point-Language Understanding and
Generation [76.61439685940272]
GPT4PointはMLLMフレームワーク内での3Dオブジェクトの理解と生成のための画期的なポイント言語マルチモーダルモデルである。
GPT4Pointは強力な3D MLLMであり、ポイントクラウドキャプションやQ&Aのような様々なポイントテキスト参照タスクをシームレスに実行できる。
幾何学的な形状や色を維持する低品質のポイントテキスト機能によって、高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-12-05T18:59:55Z) - Test-Case-Driven Programming Understanding in Large Language Models for
Better Code Generation [15.166827643436346]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z) - No Need to Lift a Finger Anymore? Assessing the Quality of Code Generation by ChatGPT [28.68768157452352]
本稿では,ChatGPTを用いたコード生成の質について検討する。
私たちは5つの言語(C、C++、Java、Python、JavaScript)で728のアルゴリズム問題と、コード生成タスクの54のコードシナリオを持つ18のCWEを活用しています。
この結果から,ChatGPTベースのコード生成に生じる潜在的な問題や限界が明らかになった。
論文 参考訳(メタデータ) (2023-08-09T10:01:09Z) - Language Models of Code are Few-Shot Commonsense Learners [106.1531522893209]
自然言語入力が与えられた場合、目標はイベントや推論グラフなどのグラフを生成することだ。
既存のアプローチは、出力グラフをノードとエッジのフラットリストとしてシリアライズする。
コード生成タスクとして構造化コモンセンス推論タスクをフレーム化する場合、事前学習されたコードLMは自然言語のLMよりも構造化コモンセンス推論タスクの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T16:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。