論文の概要: Towards Foundational AI Models for Additive Manufacturing: Language
Models for G-Code Debugging, Manipulation, and Comprehension
- arxiv url: http://arxiv.org/abs/2309.02465v1
- Date: Mon, 4 Sep 2023 21:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 18:06:23.392175
- Title: Towards Foundational AI Models for Additive Manufacturing: Language
Models for G-Code Debugging, Manipulation, and Comprehension
- Title(参考訳): 付加生産のための基礎的AIモデルに向けて:Gコードのデバッグ、操作、理解のための言語モデル
- Authors: Anushrut Jignasu, Kelly Marshall, Baskar Ganapathysubramanian, Aditya
Balu, Chinmay Hegde, Adarsh Krishnamurthy
- Abstract要約: 3Dプリンティングは、デジタルモデルから物理的オブジェクトを作成できる革命的な技術である。
G-codeは低レベルの数値制御言語で、3Dプリンタに物質を移動・放出する方法を指示する。
G-codeは、G-codeフォーマットと印刷する部分の幾何学の統語的で意味的な理解を必要とする、困難なタスクである。
- 参考スコア(独自算出の注目度): 19.651885111151497
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D printing or additive manufacturing is a revolutionary technology that
enables the creation of physical objects from digital models. However, the
quality and accuracy of 3D printing depend on the correctness and efficiency of
the G-code, a low-level numerical control programming language that instructs
3D printers how to move and extrude material. Debugging G-code is a challenging
task that requires a syntactic and semantic understanding of the G-code format
and the geometry of the part to be printed. In this paper, we present the first
extensive evaluation of six state-of-the-art foundational large language models
(LLMs) for comprehending and debugging G-code files for 3D printing. We design
effective prompts to enable pre-trained LLMs to understand and manipulate
G-code and test their performance on various aspects of G-code debugging and
manipulation, including detection and correction of common errors and the
ability to perform geometric transformations. We analyze their strengths and
weaknesses for understanding complete G-code files. We also discuss the
implications and limitations of using LLMs for G-code comprehension.
- Abstract(参考訳): 3Dプリンティングまたは添加物製造は、デジタルモデルから物理的オブジェクトを作成できる革命的な技術である。
しかし、3dプリンティングの品質と精度は、3dプリンタの素材の移動と押出の仕方を指示する低レベルの数値制御プログラミング言語g-codeの正確性と効率に依存する。
g-codeのデバッグは、g-codeフォーマットと印刷すべき部分の形状を構文的かつ意味的に理解する必要がある、難しいタスクである。
本稿では,3DプリンティングのためのG-codeファイルのコンパイルとデバッギングのための6つの最先端基盤言語モデル (LLM) の広範な評価を行う。
我々は,事前学習したllmがgコードを理解し,操作できるように効果的なプロンプトを設計し,共通エラーの検出と修正,幾何変換を行う機能など,gコードデバッグと操作のさまざまな面でその性能をテストする。
完全なg-codeファイルを理解するための強みと弱みを分析する。
また、G-code 理解に LLM を用いることの意義と限界についても論じる。
関連論文リスト
- CodeGRAG: Extracting Composed Syntax Graphs for Retrieval Augmented Cross-Lingual Code Generation [60.799992690487336]
単一ラウンドのコード生成タスクにおいて,LLMの性能を向上させるための構文グラフ検索コード生成(CodeGRAG)を提案する。
CodeGRAGはLLMのコード生成能力を大幅に改善し、言語間コード生成のパフォーマンス向上も実現している。
論文 参考訳(メタデータ) (2024-05-03T02:48:55Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [59.32609948217718]
我々は,Large Language Models(LLM)ベースのコード生成のための新しい透かし技術であるCodeIPを提案する。
CodeIPは、生成されたコードのセマンティクスを保持しながら、マルチビット情報の挿入を可能にする。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Re-Thinking Inverse Graphics With Large Language Models [51.333105116400205]
逆グラフィックスはコンピュータビジョンとグラフィックスの基本的な課題である。
LLMを中心とした逆グラフフレームワークである逆グラフ大言語モデル(IG-LLM)を提案する。
我々は、凍結した事前学習されたビジュアルエンコーダと連続的な数値ヘッドを組み込んで、エンドツーエンドのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-04-23T16:59:02Z) - 3DGen: AI-Assisted Generation of Provably Correct Binary Format Parsers [5.102523342662388]
3DGenは、AIエージェントを使用して、混合非公式入力を3Dと呼ばれる言語でフォーマット仕様に変換するフレームワークである。
3DGenはテストスイートに準拠した3D仕様を生成する。
論文 参考訳(メタデータ) (2024-04-16T07:53:28Z) - GPT4Point: A Unified Framework for Point-Language Understanding and
Generation [76.61439685940272]
GPT4PointはMLLMフレームワーク内での3Dオブジェクトの理解と生成のための画期的なポイント言語マルチモーダルモデルである。
GPT4Pointは強力な3D MLLMであり、ポイントクラウドキャプションやQ&Aのような様々なポイントテキスト参照タスクをシームレスに実行できる。
幾何学的な形状や色を維持する低品質のポイントテキスト機能によって、高品質な結果が得られる。
論文 参考訳(メタデータ) (2023-12-05T18:59:55Z) - 3D-GPT: Procedural 3D Modeling with Large Language Models [50.57513088909881]
命令駆動3Dモデリングのための大規模言語モデル(LLM)を利用するフレームワークである3D-GPTを紹介する。
3D-GPTは、3Dモデリングタスクをアクセス可能なセグメントに分割し、各タスクにアプエージェントを割り当てる。
我々の実証調査では、3D-GPTが解釈し、指示を実行し、信頼性の高い結果を提供するだけでなく、人間デザイナーと効果的に協力することを確認した。
論文 参考訳(メタデータ) (2023-10-19T17:41:48Z) - Bridging Code Semantic and LLMs: Semantic Chain-of-Thought Prompting for
Code Generation [22.219645213202178]
本稿では,SeCoT というコードの意味情報を抽出する "Semantic Chain-of-Thought" 手法を提案する。
本研究では,SeCoTが最先端の性能を実現し,大規模モデルやコード生成の可能性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-10-16T05:09:58Z) - Test-Case-Driven Programming Understanding in Large Language Models for
Better Code Generation [15.166827643436346]
muFiXは、大きな言語モデル(LLM)のコード生成性能を改善する新しいプロンプト技術である。
まず、テストケース分析を利用して仕様の理解を得、自己改善プロセスを可能にする。
muFiXはさらに、提供された理解と実際の理解の間のギャップを減らす方向に向けた仕様理解を修正している。
論文 参考訳(メタデータ) (2023-09-28T02:58:07Z) - No Need to Lift a Finger Anymore? Assessing the Quality of Code Generation by ChatGPT [28.68768157452352]
本稿では,ChatGPTを用いたコード生成の質について検討する。
私たちは5つの言語(C、C++、Java、Python、JavaScript)で728のアルゴリズム問題と、コード生成タスクの54のコードシナリオを持つ18のCWEを活用しています。
この結果から,ChatGPTベースのコード生成に生じる潜在的な問題や限界が明らかになった。
論文 参考訳(メタデータ) (2023-08-09T10:01:09Z) - Language Models of Code are Few-Shot Commonsense Learners [106.1531522893209]
自然言語入力が与えられた場合、目標はイベントや推論グラフなどのグラフを生成することだ。
既存のアプローチは、出力グラフをノードとエッジのフラットリストとしてシリアライズする。
コード生成タスクとして構造化コモンセンス推論タスクをフレーム化する場合、事前学習されたコードLMは自然言語のLMよりも構造化コモンセンス推論タスクの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-10-13T16:09:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。