論文の概要: Enhancing Finite State Machine Design Automation with Large Language Models and Prompt Engineering Techniques
- arxiv url: http://arxiv.org/abs/2506.00001v1
- Date: Wed, 26 Mar 2025 05:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.410994
- Title: Enhancing Finite State Machine Design Automation with Large Language Models and Prompt Engineering Techniques
- Title(参考訳): 大規模言語モデルとプロンプトエンジニアリング技術による有限状態機械設計自動化の強化
- Authors: Qun-Kai Lin, Cheng Hsu, Tian-Sheuan Chang,
- Abstract要約: 大規模言語モデル (LLM) は近年,ハードウェア記述言語 (HDL) 設計との互換性が著しいことから注目されている。
本稿では,有限状態機械(FSM)の設計における3つのLLM,Claude 3 Opus,ChatGPT-4,ChatGPT-4oの性能について検討する。
- 参考スコア(独自算出の注目度): 0.317785514876842
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have attracted considerable attention in recent years due to their remarkable compatibility with Hardware Description Language (HDL) design. In this paper, we examine the performance of three major LLMs, Claude 3 Opus, ChatGPT-4, and ChatGPT-4o, in designing finite state machines (FSMs). By utilizing the instructional content provided by HDLBits, we evaluate the stability, limitations, and potential approaches for improving the success rates of these models. Furthermore, we explore the impact of using the prompt-refining method, To-do-Oriented Prompting (TOP) Patch, on the success rate of these LLM models in various FSM design scenarios. The results show that the systematic format prompt method and the novel prompt refinement method have the potential to be applied to other domains beyond HDL design automation, considering its possible integration with other prompt engineering techniques in the future.
- Abstract(参考訳): 大規模言語モデル (LLM) は近年,ハードウェア記述言語 (HDL) 設計との互換性が著しいことから注目されている。
本稿では,有限状態機械(FSM)の設計において,Claude 3 Opus,ChatGPT-4,ChatGPT-4oの3つの主要LLMの性能について検討する。
HDLBitsが提供する指導内容を利用して,これらのモデルの成功率向上のための安定性,限界,潜在的アプローチを評価する。
さらに, 種々のFSM設計シナリオにおいて, To-do-Oriented Prompting (TOP) Patch がこれらの LLM モデルの成功率に与える影響について検討した。
提案手法は,HDL設計自動化以外の分野にも適用可能である可能性が示唆された。
関連論文リスト
- SynerGen-VL: Towards Synergistic Image Understanding and Generation with Vision Experts and Token Folding [66.74446220401296]
画像の理解と生成の両方が可能なシンプルだが強力なエンコーダのないMLLMであるSynerGen-VLを提案する。
トークンの折り畳み機構と,高分解能画像理解を効果的に支援するビジョンエキスパートベースのプログレッシブアライメント事前学習戦略を導入する。
コードとモデルはリリースされます。
論文 参考訳(メタデータ) (2024-12-12T18:59:26Z) - LLaVA-KD: A Framework of Distilling Multimodal Large Language Models [70.19607283302712]
本稿では,l-MLLMからs-MLLMへ知識を伝達する新しいフレームワークを提案する。
具体的には,l-MLLMとs-MLLMの視覚的テキスト出力分布のばらつきを最小限に抑えるために,MDist(Multimodal Distillation)を導入する。
また,S-MLLMの可能性を完全に活用するための3段階学習手法を提案する。
論文 参考訳(メタデータ) (2024-10-21T17:41:28Z) - Model Merging in LLMs, MLLMs, and Beyond: Methods, Theories, Applications and Opportunities [89.40778301238642]
モデルマージは、機械学習コミュニティにおける効率的なエンパワーメント技術である。
これらの手法の体系的かつ徹底的なレビューに関する文献には大きなギャップがある。
論文 参考訳(メタデータ) (2024-08-14T16:58:48Z) - Embodied AI in Mobile Robots: Coverage Path Planning with Large Language Models [6.860460230412773]
移動体エージェントのためのLLM方式の経路計画フレームワークを提案する。
提案する多層アーキテクチャは,経路計画段階におけるLPMを用いて,移動エージェントの低レベルアクチュエータと統合する。
本実験により,LLMの2次元平面推論能力と完全カバレッジパス計画タスクを改善することができることが示された。
論文 参考訳(メタデータ) (2024-07-02T12:38:46Z) - A Systematic Survey of Prompt Engineering in Large Language Models: Techniques and Applications [11.568575664316143]
本稿では,応用分野別に分類した,最近のプロンプト工学の進歩について概説する。
本稿では、プロンプト手法、その応用、関連するモデル、利用したデータセットについて詳述する。
この体系的な分析は、この急速に発展している分野をよりよく理解し、オープンな課題と迅速なエンジニアリングの機会を照明することによって将来の研究を促進する。
論文 参考訳(メタデータ) (2024-02-05T19:49:13Z) - Towards Goal-oriented Prompt Engineering for Large Language Models: A Survey [4.362755917924305]
大規模言語モデル(LLM)は、様々な下流タスクで顕著なパフォーマンスを示している。
本稿では,人為的仮定に基づく設計プロンプトの限界を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-01-25T09:47:55Z) - LLM4EDA: Emerging Progress in Large Language Models for Electronic
Design Automation [74.7163199054881]
大規模言語モデル(LLM)は、文脈理解、論理推論、回答生成においてその能力を実証している。
本稿では,EDA分野におけるLLMの応用に関する系統的研究を行う。
論理合成,物理設計,マルチモーダル特徴抽出,回路のアライメントにLLMを適用することに焦点を当て,今後の研究の方向性を強調した。
論文 参考訳(メタデータ) (2023-12-28T15:09:14Z) - Unleashing the potential of prompt engineering for large language models [1.6006550105523192]
大規模言語モデル(LLM)の能力を解き放つ上で,迅速なエンジニアリングが果たす重要な役割を概観する
自己整合性、思考の連鎖、そして生成された知識などの技術を含む、素早い工学の基礎的方法論と先進的な方法論の両方を検査する。
AIセキュリティの側面、特に迅速なエンジニアリングの脆弱性を悪用する敵攻撃について論じる。
論文 参考訳(メタデータ) (2023-10-23T09:15:18Z) - How Effective are Large Language Models in Generating Software Specifications? [14.170320751508502]
大規模言語モデル(LLM)は多くのソフトウェア工学(SE)タスクにうまく適用されている。
ソフトウェアコメントやドキュメンテーションからソフトウェア仕様を生成するためのLCMの能力を評価するための、最初の実証的研究を行う。
論文 参考訳(メタデータ) (2023-06-06T00:28:39Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z) - Large Language Models in the Workplace: A Case Study on Prompt
Engineering for Job Type Classification [58.720142291102135]
本研究では,実環境における職種分類の課題について検討する。
目標は、英語の求職が卒業生やエントリーレベルの地位に適切かどうかを判断することである。
論文 参考訳(メタデータ) (2023-03-13T14:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。