論文の概要: Toward Neurosymbolic Program Comprehension
- arxiv url: http://arxiv.org/abs/2502.01806v1
- Date: Mon, 03 Feb 2025 20:38:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 15:05:13.768550
- Title: Toward Neurosymbolic Program Comprehension
- Title(参考訳): ニューロシンボリックプログラムの理解に向けて
- Authors: Alejandro Velasco, Aya Garryyeva, David N. Palacio, Antonio Mastropaolo, Denys Poshyvanyk,
- Abstract要約: 我々は,既存のDL技術の強みと従来の象徴的手法を組み合わせたニューロシンボリック研究の方向性を提唱する。
第1回ニューロシンボリック・プログラム・フレームワークの確立をめざして,提案するアプローチの予備的結果を示す。
- 参考スコア(独自算出の注目度): 46.874490406174644
- License:
- Abstract: Recent advancements in Large Language Models (LLMs) have paved the way for Large Code Models (LCMs), enabling automation in complex software engineering tasks, such as code generation, software testing, and program comprehension, among others. Tools like GitHub Copilot and ChatGPT have shown substantial benefits in supporting developers across various practices. However, the ambition to scale these models to trillion-parameter sizes, exemplified by GPT-4, poses significant challenges that limit the usage of Artificial Intelligence (AI)-based systems powered by large Deep Learning (DL) models. These include rising computational demands for training and deployment and issues related to trustworthiness, bias, and interpretability. Such factors can make managing these models impractical for many organizations, while their "black-box'' nature undermines key aspects, including transparency and accountability. In this paper, we question the prevailing assumption that increasing model parameters is always the optimal path forward, provided there is sufficient new data to learn additional patterns. In particular, we advocate for a Neurosymbolic research direction that combines the strengths of existing DL techniques (e.g., LLMs) with traditional symbolic methods--renowned for their reliability, speed, and determinism. To this end, we outline the core features and present preliminary results for our envisioned approach, aimed at establishing the first Neurosymbolic Program Comprehension (NsPC) framework to aid in identifying defective code components.
- Abstract(参考訳): 大規模言語モデル(LLM)の最近の進歩は、コード生成、ソフトウェアテスト、プログラム理解といった複雑なソフトウェアエンジニアリングタスクの自動化を可能にする、大規模コードモデル(LCM)の道を開いた。
GitHub CopilotやChatGPTといったツールは、さまざまなプラクティスで開発者をサポートする上で大きなメリットを示している。
しかし、GPT-4が示すように、これらのモデルを1兆パラメータのサイズにスケールするという野心は、大規模なディープラーニング(DL)モデルによる人工知能(AI)ベースのシステムの使用を制限する重要な課題を提起する。
これには、トレーニングとデプロイメントに対する計算要求の増大と、信頼性、バイアス、解釈可能性に関する問題が含まれる。
このような要因は、これらのモデル管理を多くの組織で非現実的なものにしますが、その"ブラックボックス"の性質は、透明性や説明責任など、重要な側面を損ないます。
本稿では,モデルパラメータの増加が常に最適な経路であるという仮定を疑問視する。
特に,既存のDL技術(例えばLLM)と従来のシンボル手法の長所を組み合わせ,信頼性,速度,決定性に富むニューロシンボリック研究の方向性を提唱する。
この目的のために我々は,欠陥コードコンポーネントの同定を支援する,最初のニューロシンボリックプログラム理解(NsPC)フレームワークの確立を目的とした,提案するアプローチのコア機能の概要と予備的結果について述べる。
関連論文リスト
- SIaM: Self-Improving Code-Assisted Mathematical Reasoning of Large Language Models [54.78329741186446]
本稿では,コードに基づく批判モデルを用いて,質問コードデータ構築,品質管理,補完的評価などのステップをガイドする新しいパラダイムを提案する。
英語と中国語におけるドメイン内ベンチマークとドメイン外ベンチマークの両方の実験は、提案したパラダイムの有効性を実証している。
論文 参考訳(メタデータ) (2024-08-28T06:33:03Z) - Coding for Intelligence from the Perspective of Category [66.14012258680992]
符号化の対象はデータの圧縮と再構成、インテリジェンスである。
最近の傾向は、これらの2つの分野の潜在的均一性を示している。
本稿では,カテゴリ理論の観点から,インテリジェンスのためのコーディングの新たな問題を提案する。
論文 参考訳(メタデータ) (2024-07-01T07:05:44Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - A foundational neural operator that continuously learns without
forgetting [1.0878040851638]
本稿では,科学計算の基礎モデルとしてNeural Combinatorial Wavelet Neural Operator (NCWNO) の概念を紹介する。
NCWNOは、物理学の様々なスペクトルから学習し、パラメトリック偏微分方程式(PDE)に関連する解作用素に継続的に適応するように特別に設計されている。
提案した基礎モデルには、2つの大きな利点がある: (i) 複数のパラメトリックPDEに対する解演算子を同時に学習し、 (ii) 極小調整の少ない新しいパラメトリックPDEに素早く一般化できる。
論文 参考訳(メタデータ) (2023-10-29T03:20:10Z) - CodeRL: Mastering Code Generation through Pretrained Models and Deep
Reinforcement Learning [92.36705236706678]
CodeRLは、事前訓練されたLMと深層強化学習によるプログラム合成タスクのための新しいフレームワークである。
推論中、我々は重要なサンプリング戦略を持つ新しい生成手順を導入する。
モデルバックボーンについては,CodeT5のエンコーダデコーダアーキテクチャを拡張し,学習目標を拡張した。
論文 参考訳(メタデータ) (2022-07-05T02:42:15Z) - Data-Driven and SE-assisted AI Model Signal-Awareness Enhancement and
Introspection [61.571331422347875]
モデルの信号認識性を高めるためのデータ駆動型手法を提案する。
コード複雑性のSE概念とカリキュラム学習のAIテクニックを組み合わせる。
モデル信号認識における最大4.8倍の改善を実現している。
論文 参考訳(メタデータ) (2021-11-10T17:58:18Z) - Understanding Neural Code Intelligence Through Program Simplification [3.9704927572880253]
コードインテリジェンスシステムにおけるモデルに対する重要な入力特徴を特定するためのモデルに依存しないアプローチを提案する。
当社のアプローチであるSIVANDでは,CIモデルの入力プログラムのサイズを縮小する単純化手法を採用しています。
SIVANDの抽出した特徴は、ニューラルCIシステムの予測と学習行動を理解するのに役立つと信じている。
論文 参考訳(メタデータ) (2021-06-07T05:44:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。