論文の概要: Enhancing LLM-Based Neural Network Generation: Few-Shot Prompting and Efficient Validation for Automated Architecture Design
- arxiv url: http://arxiv.org/abs/2512.24120v1
- Date: Tue, 30 Dec 2025 10:01:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.354308
- Title: Enhancing LLM-Based Neural Network Generation: Few-Shot Prompting and Efficient Validation for Automated Architecture Design
- Title(参考訳): LLMに基づくニューラルネットワークの強化: 自動アーキテクチャ設計のためのFew-Shot Promptingと効率的な検証
- Authors: Chandini Vysyaraju, Raghuvir Duvvuri, Avi Goyal, Dmitry Ignatov, Radu Timofte,
- Abstract要約: 大規模言語モデル(LLM)は、計算集約型ニューラルネットワーク探索(NAS)の代替として有望である。
この研究は、コンピュータビジョンに対する2つの重要な貢献を紹介し、検証する。
- 参考スコア(独自算出の注目度): 39.32515161383424
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated neural network architecture design remains a significant challenge in computer vision. Task diversity and computational constraints require both effective architectures and efficient search methods. Large Language Models (LLMs) present a promising alternative to computationally intensive Neural Architecture Search (NAS), but their application to architecture generation in computer vision has not been systematically studied, particularly regarding prompt engineering and validation strategies. Building on the task-agnostic NNGPT/LEMUR framework, this work introduces and validates two key contributions for computer vision. First, we present Few-Shot Architecture Prompting (FSAP), the first systematic study of the number of supporting examples (n = 1, 2, 3, 4, 5, 6) for LLM-based architecture generation. We find that using n = 3 examples best balances architectural diversity and context focus for vision tasks. Second, we introduce Whitespace-Normalized Hash Validation, a lightweight deduplication method (less than 1 ms) that provides a 100x speedup over AST parsing and prevents redundant training of duplicate computer vision architectures. In large-scale experiments across seven computer vision benchmarks (MNIST, CIFAR-10, CIFAR-100, CelebA, ImageNette, SVHN, Places365), we generated 1,900 unique architectures. We also introduce a dataset-balanced evaluation methodology to address the challenge of comparing architectures across heterogeneous vision tasks. These contributions provide actionable guidelines for LLM-based architecture search in computer vision and establish rigorous evaluation practices, making automated design more accessible to researchers with limited computational resources.
- Abstract(参考訳): 自動ニューラルネットワークアーキテクチャ設計は、コンピュータビジョンにおいて依然として大きな課題である。
タスクの多様性と計算の制約は、効率的なアーキテクチャと効率的な探索方法の両方を必要とする。
大規模言語モデル (LLM) は計算集約型ニューラルネットワーク探索 (NAS) の代替として有望であるが、コンピュータビジョンにおけるアーキテクチャ生成への応用は体系的に研究されていない。
タスクに依存しないNNGPT/LEMURフレームワークをベースとして,コンピュータビジョンにおける2つの重要なコントリビューションを紹介し,検証する。
まず,LLMをベースとしたアーキテクチャ生成のための支援例(n = 1, 2, 3, 4, 5, 6)の数について,最初の体系的な研究であるFew-Shot Architecture Prompting(FSAP)を紹介する。
n = 3の例を使えば、アーキテクチャの多様性とビジョンタスクのコンテキストフォーカスのバランスが良くなります。
第二にWhitespace-Normalized Hash Validationは,AST解析の100倍の高速化を実現し,重複するコンピュータビジョンアーキテクチャの冗長なトレーニングを防止する軽量な重複解法である。
7つのコンピュータビジョンベンチマーク(MNIST, CIFAR-10, CIFAR-100, CelebA, ImageNette, SVHN, Places365)で大規模な実験を行ったところ、1,900のユニークなアーキテクチャが得られた。
また、異種視覚タスク間でのアーキテクチャ比較の課題に対処するため、データセットバランス評価手法も導入する。
これらのコントリビューションは、コンピュータビジョンにおけるLLMベースのアーキテクチャ探索のための実用的なガイドラインを提供し、厳密な評価プラクティスを確立し、計算資源が限られている研究者にとって、自動設計をよりアクセスしやすくする。
関連論文リスト
- EM-DARTS: Hierarchical Differentiable Architecture Search for Eye Movement Recognition [20.209756662832365]
微分可能なニューラルアーキテクチャサーチ(DARTS)は、高い探索効率でアーキテクチャ設計のマニュアルプロセスを自動化する。
眼球運動認識のためのDLアーキテクチャを自動設計する階層的微分可能なアーキテクチャ探索アルゴリズムEM-DARTSを提案する。
EM-DARTSは、最先端の認識性能につながる最適なアーキテクチャを実現できることを示す。
論文 参考訳(メタデータ) (2024-09-22T13:11:08Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - POPNASv3: a Pareto-Optimal Neural Architecture Search Solution for Image
and Time Series Classification [8.190723030003804]
本稿では、異なるハードウェア環境と複数の分類タスクを対象とした逐次モデルベースNASアルゴリズムの第3版について述べる。
提案手法は,異なるタスクに適応するフレキシブルな構造とデータ処理パイプラインを維持しながら,大規模な検索空間内で競合するアーキテクチャを見つけることができる。
画像と時系列の分類データセットで実施された実験は、POPNASv3が多種多様な演算子を探索し、異なるシナリオで提供されるデータの種類に適した最適なアーキテクチャに収束できることを示す。
論文 参考訳(メタデータ) (2022-12-13T17:14:14Z) - FocusFormer: Focusing on What We Need via Architecture Sampler [45.150346855368]
ビジョントランスフォーマー(ViT)はコンピュータビジョンの最近のブレークスルーを支えている。
ワンショットのニューラルアーキテクチャ検索は、さまざまなデプロイメントシナリオのためのスーパーネットトレーニングとアーキテクチャ専門化を分離する。
このようなギャップを埋めるために、FocusFormerと呼ばれるシンプルで効果的な手法を考案する。
論文 参考訳(メタデータ) (2022-08-23T10:42:56Z) - Learning Interpretable Models Through Multi-Objective Neural
Architecture Search [0.9990687944474739]
本稿では,タスク性能と「イントロスペクタビリティ」の両方を最適化するフレームワークを提案する。
タスクエラーとイントロスペクタビリティを共同で最適化することは、エラー内で実行されるより不整合でデバッグ可能なアーキテクチャをもたらすことを実証する。
論文 参考訳(メタデータ) (2021-12-16T05:50:55Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Stage-Wise Neural Architecture Search [65.03109178056937]
ResNetやNASNetのような現代の畳み込みネットワークは、多くのコンピュータビジョンアプリケーションで最先端の結果を得た。
これらのネットワークは、同じ解像度で表現を操作するレイヤのセットであるステージで構成されている。
各ステージにおけるレイヤー数の増加はネットワークの予測能力を向上させることが示されている。
しかし、結果として得られるアーキテクチャは、浮動小数点演算、メモリ要求、推論時間の観点から計算的に高価になる。
論文 参考訳(メタデータ) (2020-04-23T14:16:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。