論文の概要: Design, Implementation and Evaluation of a Novel Programming Language Topic Classification Workflow
- arxiv url: http://arxiv.org/abs/2509.20631v1
- Date: Thu, 25 Sep 2025 00:02:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.632883
- Title: Design, Implementation and Evaluation of a Novel Programming Language Topic Classification Workflow
- Title(参考訳): 新しいプログラミング言語トピック分類ワークフローの設計・実装・評価
- Authors: Michael Zhang, Yuan Tian, Mariam Guizani,
- Abstract要約: 本稿では,新しいプログラミング言語トピック分類ワークフローの設計,実装,評価について述べる。
提案手法では,マルチラベルサポートベクトルマシン(SVM)とスライディングウィンドウと投票戦略を組み合わせることで,コア言語概念の詳細なローカライゼーションを実現する。
- 参考スコア(独自算出の注目度): 11.202222026079328
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As software systems grow in scale and complexity, understanding the distribution of programming language topics within source code becomes increasingly important for guiding technical decisions, improving onboarding, and informing tooling and education. This paper presents the design, implementation, and evaluation of a novel programming language topic classification workflow. Our approach combines a multi-label Support Vector Machine (SVM) with a sliding window and voting strategy to enable fine-grained localization of core language concepts such as operator overloading, virtual functions, inheritance, and templates. Trained on the IBM Project CodeNet dataset, our model achieves an average F1 score of 0.90 across topics and 0.75 in code-topic highlight. Our findings contribute empirical insights and a reusable pipeline for researchers and practitioners interested in code analysis and data-driven software engineering.
- Abstract(参考訳): ソフトウェアシステムが規模と複雑さを増すにつれて、ソースコード内のプログラミング言語のトピックの分布を理解することは、技術的な決定を導き、導入を改善し、ツールと教育を知らせるためにますます重要になる。
本稿では,新しいプログラミング言語トピック分類ワークフローの設計,実装,評価について述べる。
提案手法は,マルチラベルサポートベクトルマシン(SVM)とスライディングウィンドウと投票戦略を組み合わせることで,演算子オーバーロードや仮想関数,継承,テンプレートなどのコア言語概念の詳細なローカライズを可能にする。
IBM Project CodeNetデータセットに基づいてトレーニングされた私たちのモデルは、トピックごとの平均F1スコアが0.90、コードトピックハイライトが0.75に達しています。
本研究は,コード解析とデータ駆動ソフトウェア工学に関心を持つ研究者や実践者に対して,経験的洞察と再利用可能なパイプラインを提供する。
関連論文リスト
- MERA Code: A Unified Framework for Evaluating Code Generation Across Tasks [56.34018316319873]
我々は,最新のLLMをロシア語で評価するためのベンチマークであるMERA Codeを提案する。
このベンチマークには、8つのプログラミング言語にまたがる11の評価タスクが含まれている。
我々はオープンなLLMとフロンティアAPIモデルを評価し、非英語言語における実用的なコーディングタスクの観点からそれらの制限を分析した。
論文 参考訳(メタデータ) (2025-07-16T14:31:33Z) - Teaching Programming in the Age of Generative AI: Insights from Literature, Pedagogical Proposals, and Student Perspectives [0.0]
この記事では、プログラミングコンテンツがどのように教えられ、学習され、評価されるべきかについて、最も関連する研究をレビューすることを目的とする。
コードの理解と実行に焦点をあてて、教育と学習の方法論を充実させることを提案する。
プログラミングの教え、学習、評価のための効果的なツールとして、コードの視覚表現と実行の視覚シミュレーションの使用を提唱している。
論文 参考訳(メタデータ) (2025-06-30T17:38:27Z) - BinMetric: A Comprehensive Binary Analysis Benchmark for Large Language Models [50.17907898478795]
本稿では,バイナリ解析タスクにおける大規模言語モデルの性能評価のためのベンチマークであるBinMetricを紹介する。
BinMetricは6つの実用的なバイナリ分析タスクにわたる20の実際のオープンソースプロジェクトから得られた1000の質問で構成されている。
本ベンチマークの実証実験では, 各種LLMのバイナリ解析能力について検討し, その強度と限界を明らかにした。
論文 参考訳(メタデータ) (2025-05-12T08:54:07Z) - Towards Leveraging Large Language Model Summaries for Topic Modeling in Source Code [0.0]
大規模言語モデル (LLM) は、プログラムの理解能力を示す。
トランスフォーマーベースのトピックモデリング技術は、テキストから意味情報を抽出する効果的な方法を提供する。
本稿では,Pythonプログラムのコーパス内で意味のあるトピックを自動的に識別する手法を提案する。
論文 参考訳(メタデータ) (2025-04-24T10:30:40Z) - A Survey of Small Language Models [104.80308007044634]
小言語モデル (SLM) は, 計算資源の最小化による言語タスクの効率化と性能の向上により, ますます重要になってきている。
本稿では,SLMのアーキテクチャ,トレーニング技術,モデル圧縮技術に着目した総合的な調査を行う。
論文 参考訳(メタデータ) (2024-10-25T23:52:28Z) - Generative AI for Software Metadata: Overview of the Information
Retrieval in Software Engineering Track at FIRE 2023 [18.616716369775883]
Information Retrieval in Software Engineering (IRSE)トラックは、コードコメントの自動評価ソリューションの開発を目的としている。
データセットは9048のコードコメントと、オープンソースCベースのプロジェクトから抽出されたコードスニペットペアで構成されている。
大きな言語モデルから生成されたラベルは、予測モデルのバイアスを増加させるが、過度に適合しない結果をもたらす。
論文 参考訳(メタデータ) (2023-10-27T14:13:23Z) - L2CEval: Evaluating Language-to-Code Generation Capabilities of Large
Language Models [102.00201523306986]
大規模言語モデル(LLM)の言語間コード生成能力を体系的に評価するL2CEvalを提案する。
モデルのサイズ、事前学習データ、命令チューニング、異なるプロンプトメソッドなど、それらのパフォーマンスに影響を与える可能性のある要因を分析する。
モデル性能の評価に加えて、モデルに対する信頼性校正を計測し、出力プログラムの人間による評価を行う。
論文 参考訳(メタデータ) (2023-09-29T17:57:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。