論文の概要: Can Small GenAI Language Models Rival Large Language Models in Understanding Application Behavior?
- arxiv url: http://arxiv.org/abs/2511.12576v1
- Date: Sun, 16 Nov 2025 12:38:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.385978
- Title: Can Small GenAI Language Models Rival Large Language Models in Understanding Application Behavior?
- Title(参考訳): 小型GenAI言語モデルは、アプリケーションの振る舞いを理解するために大きな言語モデルを作ることができるか?
- Authors: Mohammad Meymani, Hamed Jelodar, Parisa Hamedi, Roozbeh Razavi-Far, Ali A. Ghorbani,
- Abstract要約: 我々は、アプリケーションの振る舞いを理解するために、小型および大規模GenAI言語モデルの両方の能力を評価する。
より大規模なモデルでは全体的な精度が向上するが、我々の実験では、小型のGenAIモデルでは競争精度とリコールが維持されている。
以上の結果から,小型GenAIモデルは大規模モデルを効果的に補完し,性能と資源効率の両立を図ることが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 4.719048895553176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI (GenAI) models, particularly large language models (LLMs), have transformed multiple domains, including natural language processing, software analysis, and code understanding. Their ability to analyze and generate code has enabled applications such as source code summarization, behavior analysis, and malware detection. In this study, we systematically evaluate the capabilities of both small and large GenAI language models in understanding application behavior, with a particular focus on malware detection as a representative task. While larger models generally achieve higher overall accuracy, our experiments show that small GenAI models maintain competitive precision and recall, offering substantial advantages in computational efficiency, faster inference, and deployment in resource-constrained environments. We provide a detailed comparison across metrics such as accuracy, precision, recall, and F1-score, highlighting each model's strengths, limitations, and operational feasibility. Our findings demonstrate that small GenAI models can effectively complement large ones, providing a practical balance between performance and resource efficiency in real-world application behavior analysis.
- Abstract(参考訳): ジェネレーティブAI(GenAI)モデル、特に大きな言語モデル(LLM)は、自然言語処理、ソフトウェア分析、コード理解を含む複数のドメインを変換している。
ソースコードの要約、振る舞い分析、マルウェア検出など、コードの解析と生成が可能になった。
本研究では,アプリケーション動作の理解において,小規模および大規模GenAI言語モデルの能力を体系的に評価し,代表的な課題としてマルウェア検出に着目した。
より大規模なモデルでは、全体的な精度が向上するが、我々の実験では、小さなGenAIモデルは、競争精度とリコールを維持し、計算効率、高速な推論、リソース制約のある環境でのデプロイメントにおいて、かなりのアドバンテージを提供する。
精度、精度、リコール、F1スコアなどのメトリクスを詳細に比較し、各モデルの強み、限界、運用実現可能性を強調します。
この結果から,小型GenAIモデルは大規模モデルを効果的に補完し,実世界のアプリケーション動作解析における性能と資源効率の両立を図っている。
関連論文リスト
- Code Vulnerability Detection Across Different Programming Languages with AI Models [0.0]
本稿では,CodeBERTやCodeLlamaのようなトランスフォーマーモデルの実装について述べる。
これは、脆弱で安全なコードフラグメント上でモデルを動的に微調整することで、オフザシェルフモデルがモデル内の予測能力をいかに生み出すかを示している。
実験によると、よく訓練されたCodeBERTは97%以上の精度で既存の静的アナライザに匹敵するか、それ以上に優れている。
論文 参考訳(メタデータ) (2025-08-14T05:41:58Z) - White-Basilisk: A Hybrid Model for Code Vulnerability Detection [45.03594130075282]
我々は、優れた性能を示す脆弱性検出の新しいアプローチであるWhite-Basiliskを紹介する。
White-Basiliskは、パラメータ数2億の脆弱性検出タスクで結果を得る。
この研究は、コードセキュリティにおける新しいベンチマークを確立し、コンパクトで効率的に設計されたモデルが、特定のタスクにおいてより大きなベンチマークよりも優れているという実証的な証拠を提供する。
論文 参考訳(メタデータ) (2025-07-11T12:39:25Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Enhancing Traffic Incident Management with Large Language Models: A Hybrid Machine Learning Approach for Severity Classification [3.674863913115431]
本研究は,交通事故管理のための機械学習への大規模言語モデルの革新的な統合を実証する。
インシデントレポートから抽出した従来のデータと並行して,現代の言語モデルが生成する特徴を活用することで,重度分類の精度の向上を実証する。
論文 参考訳(メタデータ) (2024-03-20T12:33:51Z) - AXOLOTL: Fairness through Assisted Self-Debiasing of Large Language
Model Outputs [20.772266479533776]
AXOLOTLはタスクやモデル間で不可知的に動作する新しい後処理フレームワークである。
バイアスを識別し、解像度を提案し、モデルにアウトプットを自己バイアスさせる。
このアプローチは計算コストを最小化し、モデル性能を保存する。
論文 参考訳(メタデータ) (2024-03-01T00:02:37Z) - A Comprehensive Performance Study of Large Language Models on Novel AI
Accelerators [2.88634411143577]
大規模言語モデル(LLM)は、いくつかの課題に対処するための有望なアプローチと考えられている。
専門のAIアクセラレータハードウェアシステムは、最近、AIアプリケーションの高速化に利用できるようになった。
論文 参考訳(メタデータ) (2023-10-06T21:55:57Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - An Application of Pseudo-Log-Likelihoods to Natural Language Scoring [5.382454613390483]
比較的少ないパラメータとトレーニングステップを持つ言語モデルは、最近の大規模なデータセットでそれを上回るパフォーマンスを得ることができる。
二項選択タスクにおける常識推論のための絶対的最先端結果を生成する。
より小さなモデルの堅牢性は、構成性の観点から理解されるべきである。
論文 参考訳(メタデータ) (2022-01-23T22:00:54Z) - Scaling Language Models: Methods, Analysis & Insights from Training
Gopher [83.98181046650664]
本稿では,トランスフォーマーに基づく言語モデルの性能を,幅広いモデルスケールで解析する。
スケールからのゲインは、理解、事実確認、有害言語の同定などにおいて最大である。
我々は、AIの安全性と下流の害の軽減に対する言語モデルの適用について論じる。
論文 参考訳(メタデータ) (2021-12-08T19:41:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。