論文の概要: Detecting and Fixing API Misuses of Data Science Libraries Using Large Language Models
- arxiv url: http://arxiv.org/abs/2509.25378v1
- Date: Mon, 29 Sep 2025 18:30:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.269595
- Title: Detecting and Fixing API Misuses of Data Science Libraries Using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたデータサイエンスライブラリのAPI誤用の検出と修正
- Authors: Akalanka Galappaththi, Francisco Ribeiro, Sarah Nadi,
- Abstract要約: 本稿では,データサイエンスライブラリのAPI誤用を検出し,修正するためのLCMベースのアプローチであるDSCHECKERを紹介する。
APIの誤用の検出と修正に有用な2つの重要な情報、すなわちAPIディレクティブとデータ情報を特定します。
ドシェッカー剤は48.65パーセントのF1スコアを検出でき、誤用の39.47パーセントを修正している。
- 参考スコア(独自算出の注目度): 0.6958509696068848
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data science libraries, such as scikit-learn and pandas, specialize in processing and manipulating data. The data-centric nature of these libraries makes the detection of API misuse in them more challenging. This paper introduces DSCHECKER, an LLM-based approach designed for detecting and fixing API misuses of data science libraries. We identify two key pieces of information, API directives and data information, that may be beneficial for API misuse detection and fixing. Using three LLMs and misuses from five data science libraries, we experiment with various prompts. We find that incorporating API directives and data-specific details enhances Dschecker's ability to detect and fix API misuses, with the best-performing model achieving a detection F1-score of 61.18 percent and fixing 51.28 percent of the misuses. Building on these results, we implement Dschecker agent which includes an adaptive function calling mechanism to access information on demand, simulating a real-world setting where information about the misuse is unknown in advance. We find that Dschecker agent achieves 48.65 percent detection F1-score and fixes 39.47 percent of the misuses, demonstrating the promise of LLM-based API misuse detection and fixing in real-world scenarios.
- Abstract(参考訳): シンキ-ラーンやパンダなどのデータサイエンスライブラリは、データ処理と操作を専門とする。
これらのライブラリのデータ中心の性質により、APIの誤用の検出がより困難になる。
本稿では,データサイエンスライブラリのAPI誤用の検出と修正を目的としたLCMベースのアプローチであるDSCHECKERを紹介する。
APIの誤用の検出と修正に有用な2つの重要な情報、すなわちAPIディレクティブとデータ情報を特定します。
5つのデータサイエンスライブラリの3つのLSMと誤用を使用して、さまざまなプロンプトを実験する。
APIディレクティブとデータ固有の詳細を導入することで、API誤用を検出して修正するDscheckerの能力が向上し、最高のパフォーマンスモデルは、61.18パーセントのF1スコアを獲得し、誤用を51.28パーセント修正する。
これらの結果に基づいて、我々は需要情報にアクセスするための適応関数呼び出し機構を含むDscheckerエージェントを実装し、その誤用に関する情報が事前に不明な現実世界の設定をシミュレートする。
Dscheckerエージェントは48.65パーセントのF1スコア検出を実現し、39.47パーセントの誤用を修正し、LLMベースのAPI誤用検出と実際のシナリオでの修正の可能性を実証している。
関連論文リスト
- Towards Automated Error Discovery: A Study in Conversational AI [48.735443116662026]
本稿では,会話型AIにおけるエラーの検出と定義のためのフレームワークであるAutomated Error Discoveryを紹介する。
また,その実装に対するエンコーダに基づくアプローチとして,SEEED(Soft Clustering Extended-Based Error Detection)を提案する。
論文 参考訳(メタデータ) (2025-09-13T14:53:22Z) - Enhancing the Capabilities of Large Language Models for API calls through Knowledge Graphs [1.6691048566825868]
KG2dataは知識グラフ、大規模言語モデル(LLM)、ReActエージェント、ツール利用技術を統合するシステムである。
仮想APIを使用することで、名前認識障害、幻覚障害、呼び出しの正確性という3つの指標でAPIコールの精度を評価する。
KG2data は RAG2data (16%, 10%, 72.14%) や chat2data (7.14%, 8.57%, 71.43%) に比べて優れたパフォーマンスを実現している(1.43%, 0%, 88.57%)。
論文 参考訳(メタデータ) (2025-07-14T08:20:06Z) - Hey, That's My Data! Label-Only Dataset Inference in Large Language Models [63.35066172530291]
CatShiftはラベルのみのデータセット推論フレームワークである。
LLMは、新しいデータに晒されたとき、学習した知識を上書きする傾向にある。
論文 参考訳(メタデータ) (2025-06-06T13:02:59Z) - LLM-assisted Mutation for Whitebox API Testing [40.91007243855959]
MioHintは、LLM(Large Language Model)のコード理解機能を活用して、APIテストを促進する、新しいホワイトボックスAPIテストアプローチである。
提案手法の有効性を評価するため,16の実世界のAPIサービスを対象に実験を行った。
論文 参考訳(メタデータ) (2025-04-08T07:14:51Z) - Identifying and Mitigating API Misuse in Large Language Models [26.4403427473915]
大規模言語モデル(LLM)が生成するコードのAPI誤用は、ソフトウェア開発において深刻な課題となっている。
本稿では LLM 生成コードにおける API の誤用パターンについて,Python および Java 間でのメソッド選択とパラメータ使用法の両方を解析し,総合的研究を行った。
上記の分類に基づくAPI誤用に対する新しいLCMベースの自動プログラム修復手法であるDr.Fixを提案する。
論文 参考訳(メタデータ) (2025-03-28T18:43:12Z) - Information-Guided Identification of Training Data Imprint in (Proprietary) Large Language Models [52.439289085318634]
情報誘導プローブを用いて,プロプライエタリな大規模言語モデル (LLM) で知られているトレーニングデータを識別する方法を示す。
我々の研究は、重要な観察の上に成り立っている: 高次数テキストパスは、暗記プローブにとって良い検索材料である。
論文 参考訳(メタデータ) (2025-03-15T10:19:15Z) - ToolACE: Winning the Points of LLM Function Calling [139.07157814653638]
ToolACEは、正確で複雑で多様なツール学習データを生成するように設計された自動エージェントパイプラインである。
我々は、合成データに基づいてトレーニングされたモデルが、8Bパラメータだけで、バークレー・ファンクション・カリング・リーダーボード上で最先端のパフォーマンスを達成することを実証した。
論文 参考訳(メタデータ) (2024-09-02T03:19:56Z) - An Empirical Study of API Misuses of Data-Centric Libraries [9.667988837321943]
本稿では,データ処理,数値計算,機械学習,可視化などの分野をカバーする5つのデータ中心ライブラリのAPI誤用に関する実証的研究を行う。
Stack OverflowとGitHubのデータを分析することで、これらのライブラリの誤用を特定します。
論文 参考訳(メタデータ) (2024-08-28T15:15:52Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - Advancing Anomaly Detection: Non-Semantic Financial Data Encoding with LLMs [49.57641083688934]
本稿では,Large Language Models (LLM) 埋め込みを用いた財務データにおける異常検出の新しい手法を提案する。
実験により,LLMが異常検出に有用な情報をもたらし,モデルがベースラインを上回っていることが確認された。
論文 参考訳(メタデータ) (2024-06-05T20:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。