論文の概要: A Retrieval-Augmented Generation Approach to Extracting Algorithmic Logic from Neural Networks
- arxiv url: http://arxiv.org/abs/2512.04329v1
- Date: Wed, 03 Dec 2025 23:28:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:45.927055
- Title: A Retrieval-Augmented Generation Approach to Extracting Algorithmic Logic from Neural Networks
- Title(参考訳): ニューラルネットワークからアルゴリズム論理を抽出する検索補助生成手法
- Authors: Waleed Khalid, Dmitry Ignatov, Radu Timofte,
- Abstract要約: NN-RAGは,大規模で異種なPyTorchを検証済みニューラルネットワークの検索可能なライブラリに変換する検索拡張生成システムである。
19のリポジトリに適用して、パイプラインは1,289の候補ブロックを抽出し、991(73.0%)を検証し、80%以上が構造的にユニークであることを実証した。
- 参考スコア(独自算出の注目度): 48.83701310501069
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reusing existing neural-network components is central to research efficiency, yet discovering, extracting, and validating such modules across thousands of open-source repositories remains difficult. We introduce NN-RAG, a retrieval-augmented generation system that converts large, heterogeneous PyTorch codebases into a searchable and executable library of validated neural modules. Unlike conventional code search or clone-detection tools, NN-RAG performs scope-aware dependency resolution, import-preserving reconstruction, and validator-gated promotion -- ensuring that every retrieved block is scope-closed, compilable, and runnable. Applied to 19 major repositories, the pipeline extracted 1,289 candidate blocks, validated 941 (73.0%), and demonstrated that over 80% are structurally unique. Through multi-level de-duplication (exact, lexical, structural), we find that NN-RAG contributes the overwhelming majority of unique architectures to the LEMUR dataset, supplying approximately 72% of all novel network structures. Beyond quantity, NN-RAG uniquely enables cross-repository migration of architectural patterns, automatically identifying reusable modules in one project and regenerating them, dependency-complete, in another context. To our knowledge, no other open-source system provides this capability at scale. The framework's neutral specifications further allow optional integration with language models for synthesis or dataset registration without redistributing third-party code. Overall, NN-RAG transforms fragmented vision code into a reproducible, provenance-tracked substrate for algorithmic discovery, offering a first open-source solution that both quantifies and expands the diversity of executable neural architectures across repositories.
- Abstract(参考訳): 既存のニューラルネットワークコンポーネントの再利用は、研究効率の中心であるが、何千ものオープンソースリポジトリでそのようなモジュールを発見し、抽出し、検証することは、依然として困難である。
NN-RAGは,大規模で異種なPyTorchコードベースを,検証済みニューラルネットワークの検索可能かつ実行可能なライブラリに変換する検索拡張生成システムである。
従来のコード検索やクローン検出ツールとは異なり、NN-RAGはスコープ対応の依存性解決、インポート保存の再構築、バリデータ付きプロモーションを実行する。
19のメジャーリポジトリに適用されたパイプラインは、1,289個の候補ブロックを抽出し、991個(73.0%)を検証し、80%以上が構造的にユニークであることを実証した。
NN-RAGがLEMURデータセットの圧倒的多数に寄与し、新しいネットワーク構造の約72%を供給していることが、マルチレベルデ複製(exact, lexical, structure)を通じて明らかになった。
NN-RAGは、量を超えて、アーキテクチャパターンのリポジトリ間移行を可能にし、あるプロジェクトで再利用可能なモジュールを自動的に識別し、別のコンテキストでそれらを再生成する。
私たちの知る限りでは、他のオープンソースシステムでは、この機能を大規模に提供していません。
フレームワークの中立的な仕様により、サードパーティのコードを再配布することなく、合成やデータセット登録のための言語モデルとの任意の統合が可能になる。
NN-RAGは全体として、断片化された視覚コードを再現可能なプロファイランス追跡されたアルゴリズム発見用基板に変換し、リポジトリ全体にわたる実行可能なニューラルネットワークの多様性を定量化および拡張する、最初のオープンソースソリューションを提供する。
関連論文リスト
- Unified Implementations of Recurrent Neural Networks in Multiple Deep Learning Frameworks [0.5187177298223502]
torchrecurrent、RecurrentLayers.jl、LuxRecurrentLayers.jlは、RNNモデルの構築と拡張のための一貫したフレームワークを提供する。
すべてのパッケージはMITライセンスで利用可能で、GitHubでアクティブにメンテナンスされている。
論文 参考訳(メタデータ) (2025-10-24T08:35:33Z) - ONNX-Net: Towards Universal Representations and Instant Performance Prediction for Neural Architectures [60.14199724905456]
ONNX-Benchは、ONNXファイルに基づいた統一形式のニューラルネットワークの集合からなるベンチマークである。
ONNX-Netは、パフォーマンス予測器への入力として機能する自然言語記述を使用して、任意のニューラルネットワークを表す。
実験では,少数の事前学習サンプルのみを用いて,異なる探索空間をまたいだゼロショット性能を示す。
論文 参考訳(メタデータ) (2025-10-06T15:43:36Z) - LM-Searcher: Cross-domain Neural Architecture Search with LLMs via Unified Numerical Encoding [55.5535016040221]
LM-Searcherは、クロスドメインニューラルネットワーク最適化のための新しいフレームワークである。
我々のアプローチの中心は、ニューラルネットワークのための普遍的な数値文字列表現であるNCodeである。
我々のデータセットは、幅広いアーキテクチャとパフォーマンスのペアを含み、堅牢で伝達可能な学習を促進する。
論文 参考訳(メタデータ) (2025-09-06T09:26:39Z) - Loong: Synthesize Long Chain-of-Thoughts at Scale through Verifiers [103.4410890572479]
スケーラブルな合成データ生成と検証のためのオープンソースのフレームワークであるLoong Projectを紹介します。
LoongBenchは、12のドメインにまたがる8,729の人為的なサンプルを含む、キュレートされたシードデータセットである。
LoongEnvはモジュラー合成データ生成環境であり、新しい質問応答コードのトリプルを生成する複数のプロンプト戦略をサポートする。
論文 参考訳(メタデータ) (2025-09-03T06:42:40Z) - Arch-LLM: Taming LLMs for Neural Architecture Generation via Unsupervised Discrete Representation Learning [2.981775461282335]
共通のアプローチは、分散アーキテクチャを連続的な表現空間にマッピングするために、変分オートエンコーダ(VAE)を使用することである。
本稿では,ベクトル量子化変分オートエンコーダ(VQ-VAE)を導入し,離散型ニューラルアーキテクチャとより自然に一致した離散潜在空間を学習する。
VAE法と比較して,本手法はNASBench-101では80%以上,NASBench-201では8%以上向上する。
論文 参考訳(メタデータ) (2025-03-28T00:56:56Z) - GNN-Coder: Boosting Semantic Code Retrieval with Combined GNNs and Transformer [15.991615273248804]
抽象構文木(AST)を利用するグラフニューラルネットワーク(GNN)に基づく新しいフレームワークであるGNN-Coderを紹介する。
GNN-Coderは、CSNデータセットのMRRが1%-10%改善され、CosQAデータセットのゼロショットパフォーマンスが20%向上するなど、検索パフォーマンスを著しく向上させる。
論文 参考訳(メタデータ) (2025-02-21T04:29:53Z) - A novel Region of Interest Extraction Layer for Instance Segmentation [3.5493798890908104]
本稿では,既存のRoI抽出器の限界を克服する必要性を動機とする。
提案するレイヤ(Generic RoI Extractor - GRoIE)には,非ローカルなビルディングブロックとアテンション機構が導入され,パフォーマンスが向上する。
GRoIEは、オブジェクト検出とインスタンスセグメンテーションの両方のために、すべての2段階アーキテクチャとシームレスに統合できる。
論文 参考訳(メタデータ) (2020-04-28T17:07:32Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。