論文の概要: Exploring Large Language Models for Analyzing and Improving Method Names in Scientific Code
- arxiv url: http://arxiv.org/abs/2507.16439v1
- Date: Tue, 22 Jul 2025 10:33:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.075118
- Title: Exploring Large Language Models for Analyzing and Improving Method Names in Scientific Code
- Title(参考訳): 学術コードにおけるメソッド名の解析と改善のための大規模言語モデルの検討
- Authors: Gunnar Larsen, Carol Wong, Anthony Peruma,
- Abstract要約: LLM(Large Language Models)の最近の進歩は、コード分析タスクを自動化する新しい機会を提供する。
そこで本研究では,Python ベースの Jupyter Notebooks から抽出した 496 のメソッド名に対して,文法パターンの解析能力に関する4つの LLM の評価を行った。
- 参考スコア(独自算出の注目度): 4.385741575933952
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Research scientists increasingly rely on implementing software to support their research. While previous research has examined the impact of identifier names on program comprehension in traditional programming environments, limited work has explored this area in scientific software, especially regarding the quality of method names in the code. The recent advances in Large Language Models (LLMs) present new opportunities for automating code analysis tasks, such as identifier name appraisals and recommendations. Our study evaluates four popular LLMs on their ability to analyze grammatical patterns and suggest improvements for 496 method names extracted from Python-based Jupyter Notebooks. Our findings show that the LLMs are somewhat effective in analyzing these method names and generally follow good naming practices, like starting method names with verbs. However, their inconsistent handling of domain-specific terminology and only moderate agreement with human annotations indicate that automated suggestions require human evaluation. This work provides foundational insights for improving the quality of scientific code through AI automation.
- Abstract(参考訳): 研究者は研究を支援するソフトウェアの実装にますます依存している。
従来のプログラミング環境において,識別子名がプログラム理解に与える影響について検討してきたが,特にコードにおけるメソッド名の品質について,限定的な研究がなされている。
LLM(Large Language Models)の最近の進歩は、識別子名評価やレコメンデーションなど、コード解析タスクを自動化する新たな機会を提供する。
そこで本研究では,Python ベースの Jupyter Notebooks から抽出した 496 のメソッド名に対して,文法パターンの解析能力に関する4つの LLM の評価を行った。
その結果, LLMはこれらのメソッド名の分析に有効であり, 動詞を用いたメソッド名作成など, 一般的によい命名法に従うことが示唆された。
しかし、ドメイン固有の用語の一貫性のない扱いや、人間のアノテーションとの適度な合意は、自動提案が人間の評価を必要とすることを示している。
この研究は、AI自動化を通じて科学的コードの品質を改善するための基礎的な洞察を提供する。
関連論文リスト
- MERA Code: A Unified Framework for Evaluating Code Generation Across Tasks [56.34018316319873]
我々は,最新のLLMをロシア語で評価するためのベンチマークであるMERA Codeを提案する。
このベンチマークには、8つのプログラミング言語にまたがる11の評価タスクが含まれている。
我々はオープンなLLMとフロンティアAPIモデルを評価し、非英語言語における実用的なコーディングタスクの観点からそれらの制限を分析した。
論文 参考訳(メタデータ) (2025-07-16T14:31:33Z) - Method Names in Jupyter Notebooks: An Exploratory Study [5.8097100720874355]
384 Jupyter Notebook における 691 メソッドの命名方法の解析を行った。
本研究は,ノートのメソッド名の特徴を明らかにし,簡潔さの選好を含む特徴を明らかにした。
我々は,科学的コードにおける高品質な名前を評価・推奨するための専門的なツールや技術の開発に寄与する研究成果を思い起こさせる。
論文 参考訳(メタデータ) (2025-04-29T00:38:56Z) - Exploring a Large Language Model for Transforming Taxonomic Data into OWL: Lessons Learned and Implications for Ontology Development [63.74965026095835]
本稿では,種分類におけるChatGPT-4を用いた農業製品型オントロジー(APTO)におけるオルガニズムモジュールの開発について検討する。
本手法では,ChatGPT-4を用いてGBIF Backbone APIからデータを抽出し,APTOのさらなる統合のためのファイルを生成する。
1つは、BrowserOPプラグインを介してタスクを実行するためのChatGPT-4の一連のプロンプトを発行すること、2つは、タスクを実行するためのPythonアルゴリズムを設計するためにChatGPT-4を指示することである。
論文 参考訳(メタデータ) (2025-04-25T19:05:52Z) - Evaluation of the Automated Labeling Method for Taxonomic Nomenclature Through Prompt-Optimized Large Language Model [0.0]
大型言語モデル(LLM)を用いた自動種名ラベル付けの実現可能性について検討した。
その結果, LLMによる分類は, 形態学, 地理学, 人文学のカテゴリーにおいて高い精度を達成できたことが示唆された。
今後の研究は、最適化された数ショット学習と検索強化生成技術による精度の向上に焦点を当てる。
論文 参考訳(メタデータ) (2025-03-08T23:11:43Z) - LLM Program Optimization via Retrieval Augmented Search [71.40092732256252]
提案手法は,提案手法によって最適化されたビーム探索を行う検索アルゴリズムであるRetrieval Augmented Search (RAS) である。
我々は、RASが従来の最先端のブラックボックス適応戦略よりも1.8$times$パフォーマンスが高いことを示す。
また、トレーニング例を「アトミックな編集」に分解することで、解釈可能性を向上させるAEGISと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2025-01-31T06:34:47Z) - Benchmarking Uncertainty Quantification Methods for Large Language Models with LM-Polygraph [83.90988015005934]
不確実性定量化は機械学習アプリケーションにおいて重要な要素である。
最新のUQベースラインの集合を実装した新しいベンチマークを導入する。
我々は、11タスクにわたるUQと正規化技術に関する大規模な実証的研究を行い、最も効果的なアプローチを特定した。
論文 参考訳(メタデータ) (2024-06-21T20:06:31Z) - A Self-enhancement Approach for Domain-specific Chatbot Training via
Knowledge Mining and Digest [62.63606958140248]
大規模言語モデル(LLM)は、特定のドメインで複雑な知識要求クエリを扱う際に、しばしば困難に直面する。
本稿では、ドメイン固有のテキストソースから関連知識を効果的に抽出し、LLMを強化する新しいアプローチを提案する。
我々は知識マイナー、すなわちLLMinerを訓練し、関連する文書から質問応答対を自律的に抽出する。
論文 参考訳(メタデータ) (2023-11-17T16:09:10Z) - How are We Detecting Inconsistent Method Names? An Empirical Study from
Code Review Perspective [13.585460827586926]
メソッドの適切な命名は、プログラムコードを理解しやすくし、ソフトウェア保守性を高める。
メソッド名の不整合をチェックする自動ツールの開発に多くの研究努力が費やされている。
本研究では,最先端技術が一貫性と一貫性のないメソッド名の検出や推奨にどのように貢献するかを実証研究する。
論文 参考訳(メタデータ) (2023-08-24T10:39:18Z) - How Does Naming Affect LLMs on Code Analysis Tasks? [8.150719423943109]
自然言語処理(NLP)において,Large Language Models (LLMs) が提案され,汎用言語モデルとして有望な結果が得られた。
本稿では,コード解析タスクにおける命名がLLMに与える影響について検討する。
論文 参考訳(メタデータ) (2023-07-24T02:38:24Z) - Disambiguation of Company names via Deep Recurrent Networks [101.90357454833845]
企業名文字列の埋め込みである教師付き学習を通じて,Siamese LSTM Network を抽出する手法を提案する。
私たちは、ラベル付けされるサンプルを優先するActive Learningアプローチが、より効率的な全体的な学習パイプラインをもたらす方法を分析します。
論文 参考訳(メタデータ) (2023-03-07T15:07:57Z) - Exploiting Method Names to Improve Code Summarization: A Deliberation
Multi-Task Learning Approach [5.577102440028882]
コード要約のための新しいマルチタスク学習(MTL)アプローチを設計する。
まず,メソッド名の生成と情報性予測のタスクを紹介する。
新たな2パス審議機構をmtlアーキテクチャに組み込んで、より一貫性のある中間状態を生成します。
論文 参考訳(メタデータ) (2021-03-21T17:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。