論文の概要: Mitigating hallucinations and omissions in LLMs for invertible problems: An application to hardware logic design automation
- arxiv url: http://arxiv.org/abs/2512.03053v1
- Date: Tue, 25 Nov 2025 00:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-04 20:02:54.912924
- Title: Mitigating hallucinations and omissions in LLMs for invertible problems: An application to hardware logic design automation
- Title(参考訳): 可逆問題に対するLLMにおける幻覚と省略の緩和:ハードウェア論理設計自動化への応用
- Authors: Andrew S. Cassidy, Guillaume Garreau, Jay Sivagnaname, Mike Grassi, Bernard Brezzo, John V. Arthur, Dharmendra S. Modha,
- Abstract要約: ソースドメイン(例えば、論理条件表(LCT))から宛先ドメイン(例えば、ハードウェア記述言語(HDL)コード)にデータを変換する可逆問題を示す。
我々は、7つの異なるLLMを用いて2次元ネットワークオンチップルータ用のフルHDLを生成し、自動生成されたHDLからLCTを再構成し、元のLCTと再構成されたLCTを比較した。
- 参考スコア(独自算出の注目度): 0.11726720776908518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We show for invertible problems that transform data from a source domain (for example, Logic Condition Tables (LCTs)) to a destination domain (for example, Hardware Description Language (HDL) code), an approach of using Large Language Models (LLMs) as a lossless encoder from source to destination followed by as a lossless decoder back to the source, comparable to lossless compression in information theory, can mitigate most of the LLM drawbacks of hallucinations and omissions. Specifically, using LCTs as inputs, we generate the full HDL for a two-dimensional network-on-chip router (13 units, 1500-2000 lines of code) using seven different LLMs, reconstruct the LCTs from the auto-generated HDL, and compare the original and reconstructed LCTs. This approach yields significant productivity improvements, not only confirming correctly generated LLM logic and detecting incorrectly generated LLM logic but also assisting developers in finding design specification errors.
- Abstract(参考訳): 我々は、ソースドメインから目的地ドメイン(例えば、論理条件表(LCT))にデータを変換する可逆的問題(例えば、ハードウェア記述言語(HDL)コード)について、Large Language Models(LLM)をソースからソースへのロスレスエンコーダとして使用し、続いてソースへのロスレスデコーダとして、情報理論におけるロスレス圧縮に匹敵する損失レスデコーダとして使用することにより、幻覚や省略のLLMの欠点の大部分を軽減することができることを示す。
具体的には、LCTを入力とし、7つの異なるLLMを用いて2次元ネットワークオンチップルータ(13ユニット、1500-2000行のコード)の完全なHDLを生成し、自動生成されたHDLからLCTを再構成し、元のLCTと比較する。
このアプローチは、正しく生成されたLLMロジックを確認し、誤って生成されたLLMロジックを検出するだけでなく、開発者が設計仕様のエラーを見つけるのを助けるなど、生産性を大幅に向上させる。
関連論文リスト
- PRO-V: An Efficient Program Generation Multi-Agent System for Automatic RTL Verification [6.983135183126461]
Pro-Vは、堅牢なRTL検証のためのプログラム生成マルチエージェントシステムである。
生成したテストベンチの正しさを高めるため、効率的なn個の反復サンプリング戦略が組み込まれている。
Pro-Vは、黄金のRTL実装では87.17%、RTL変異では76.28%の精度で検証されている。
論文 参考訳(メタデータ) (2025-06-13T20:06:34Z) - Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding [51.711605076319216]
拡散に基づく大規模言語モデル (Diffusion LLM) は、並列復号機能を持つ非自己回帰テキスト生成を約束している。
本稿では,双方向拡散モデルに適したブロック単位で近似したKVキャッシュ機構を提案する。
本稿では,信頼しきい値を超えるトークンを選択的に復号し,依存関係違反を軽減し,生成品質を維持できる信頼度対応並列復号方式を提案する。
論文 参考訳(メタデータ) (2025-05-28T17:39:15Z) - Classification-Based Automatic HDL Code Generation Using LLMs [9.630310313347657]
大規模言語モデル(LLM)は、デジタル回路用のハードウェア記述言語(HDL)コードを生成する能力を実証している。
LLMは幻覚の問題に悩まされ、誤ったHDLコードの生成や仕様の誤解につながる。
我々は,LLMの幻覚を緩和し,HDLコード生成の性能を向上させるために,人間の専門性に着想を得た手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T09:00:13Z) - Can Language Models Pretend Solvers? Logic Code Simulation with LLMs [3.802945676202634]
トランスフォーマーベースの大規模言語モデル(LLM)は、論理問題に対処する上で大きな可能性を示している。
この研究は、論理コードシミュレーションという新しい側面に発展し、論理プログラムの結果を予測するために論理解法をエミュレートするよう LLM に強制する。
論文 参考訳(メタデータ) (2024-03-24T11:27:16Z) - Harnessing the Zero-Shot Power of Instruction-Tuned Large Language Model in End-to-End Speech Recognition [23.172469312225694]
自動音声認識(ASR)におけるテキスト生成プロセスの指導に,命令調整付き大言語モデル(LLM)を用いることを提案する。
提案手法はCTCとアテンションアーキテクチャを併用し,LLMはデコーダのフロントエンド特徴抽出器として機能する。
実験結果から,LLM誘導モデルによる単語誤り率の相対的な増加率は,主要なベンチマークで約13%であった。
論文 参考訳(メタデータ) (2023-09-19T11:10:50Z) - DoLa: Decoding by Contrasting Layers Improves Factuality in Large
Language Models [79.01926242857613]
大型言語モデル(LLM)は幻覚を起こす傾向があり、事前訓練中に見られる事実から逸脱した内容を生成する。
事前学習したLLMによる幻覚を低減するための簡単な復号法を提案する。
コントラスティング・レイヤ(DoLa)アプローチによるこのデコーディングは,事実知識をよりよく提示し,誤った事実の生成を減らすことができる。
論文 参考訳(メタデータ) (2023-09-07T17:45:31Z) - Inference with Reference: Lossless Acceleration of Large Language Models [97.04200102556551]
LLMAは、参照によるLarge Language Model (LLM)推論を高速化するアクセラレータである。
LLMによる復号結果と実世界の多くのシナリオで利用できる参照との間には、多くの同一のテキストが存在していることが観察の動機となっている。
論文 参考訳(メタデータ) (2023-04-10T09:55:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。