論文の概要: Automated Multi-Source Debugging and Natural Language Error Explanation for Dashboard Applications
- arxiv url: http://arxiv.org/abs/2602.15362v1
- Date: Tue, 17 Feb 2026 05:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.984839
- Title: Automated Multi-Source Debugging and Natural Language Error Explanation for Dashboard Applications
- Title(参考訳): ダッシュボードアプリケーションのための自動マルチソースデバッグと自然言語エラー記述
- Authors: Devendra Tata, Mona Rajhans,
- Abstract要約: 本稿では,自動多ソース・自然言語誤り記述システムを提案する。
提案するフレームワークは,ブラウザ,API,サーバログなどの異なるソースからのエラーデータを自動で収集,関連付けし,APIコントラクトをリアルタイムで検証する。
このアプローチは、サポートエンジニアに対する平均分解時間を大幅に削減し、暗号化エラーコードを実用的な洞察に変換することによって、ユーザエクスペリエンスを向上させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern web dashboards and enterprise applications increasingly rely on complex, distributed microservices architectures. While these architectures offer scalability, they introduce significant challenges in debugging and observability. When failures occur, they often manifest as opaque error messages to the end-user such as Something went wrong. This masks the underlying root cause which may reside in browser side exceptions, API contract violations, or server side logic failures. Existing monitoring tools capture these events in isolation but fail to correlate them effectively or provide intelligible explanations to non technical users. This paper proposes a novel system for Automated Multi Source Debugging and Natural Language Error Explanation. The proposed framework automatically collects and correlates error data from disparate sources such as browser, API, server logs and validates API contracts in real time, and utilizes Large Language Models to generate natural language explanations. This approach significantly reduces Mean Time to Resolution for support engineers and improves the user experience by transforming cryptic error codes into actionable insights.
- Abstract(参考訳): 現代的なWebダッシュボードとエンタープライズアプリケーションはますます、複雑な分散マイクロサービスアーキテクチャに依存している。
これらのアーキテクチャはスケーラビリティを提供するが、デバッグと可観測性に大きな課題をもたらす。
障害が発生すると、しばしば不透明なエラーメッセージとして、Somesのようなエンドユーザに現れる。
これは、ブラウザ側の例外、API契約違反、サーバ側のロジック障害に該当する根本原因を隠蔽する。
既存の監視ツールは、これらのイベントを分離してキャプチャするが、それらを効果的に相関づけたり、非技術ユーザに対して理解不能な説明を提供したりすることができない。
本稿では,自動マルチソースデバッグと自然言語エラー記述のための新しいシステムを提案する。
提案フレームワークは,ブラウザ,API,サーバログなどの異なるソースからのエラーデータを自動で収集・相関し,APIコントラクトをリアルタイムで検証し,Large Language Modelsを用いて自然言語の説明を生成する。
このアプローチは、サポートエンジニアに対する平均分解時間を大幅に削減し、暗号化エラーコードを実用的な洞察に変換することによって、ユーザエクスペリエンスを向上させる。
関連論文リスト
- Past, Present, and Future of Bug Tracking in the Generative AI Era [1.3241176321860364]
従来のバグトラッキングシステムは、手動のレポート、再生、トリアージ、解像度に大きく依存している。
我々は、インテリジェントで大規模言語モデル(LLM)による自動化によって既存のツールを拡張するAIベースのバグトラッキングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-09T09:42:30Z) - Towards Automated Error Discovery: A Study in Conversational AI [48.735443116662026]
本稿では,会話型AIにおけるエラーの検出と定義のためのフレームワークであるAutomated Error Discoveryを紹介する。
また,その実装に対するエンコーダに基づくアプローチとして,SEEED(Soft Clustering Extended-Based Error Detection)を提案する。
論文 参考訳(メタデータ) (2025-09-13T14:53:22Z) - RepoDebug: Repository-Level Multi-Task and Multi-Language Debugging Evaluation of Large Language Models [49.83481415540291]
LLM(Large Language Models)は、コードのデバッグに非常に熟練している。
本稿ではマルチタスクおよび多言語リポジトリレベルのコードデバッグデータセットであるRepo Debugを紹介する。
最高のパフォーマンスモデルである Claude 3.5 Sonnect は,リポジトリレベルのデバッグでは依然としてうまく動作しない。
論文 参考訳(メタデータ) (2025-09-04T10:13:21Z) - A Framework for Testing and Adapting REST APIs as LLM Tools [11.757827071584737]
大きな言語モデル(LLM)は、外部ツールで複雑なタスクを実行する自律エージェントを構築するために、ますます使われています。
現在のベンチマークではこれらの課題を見落としており、エージェント駆動自動化のためのAPI準備性の評価のギャップが残っている。
LLMエージェント用のPythonツールとしてラップされたエンタープライズAPIを体系的に評価するテストフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-22T02:52:08Z) - Beyond Final Code: A Process-Oriented Error Analysis of Software Development Agents in Real-World GitHub Scenarios [31.749442120603774]
問題解決フェーズにおけるPythonの実行エラーは、低解像度率と推論オーバーヘッドの増加と相関している。
私たちは、ModuleNotFoundErrorやTypeErrorのような最も一般的なエラーを特定し、OSErrorやデータベース関連の問題のような特に困難なエラーを強調しました。
論文 参考訳(メタデータ) (2025-03-16T06:24:51Z) - Seeker: Towards Exception Safety Code Generation with Intermediate Language Agents Framework [58.36391985790157]
現実世界のソフトウェア開発では、不適切な例外処理がコードの堅牢性と信頼性に重大な影響を与えます。
コードにおける例外処理を改善するために,大規模言語モデル (LLM) の利用について検討する。
例外処理のエキスパート開発者戦略に触発されたマルチエージェントフレームワークであるSeekerを提案する。
論文 参考訳(メタデータ) (2024-12-16T12:35:29Z) - Using Developer Discussions to Guide Fixing Bugs in Software [51.00904399653609]
我々は,タスク実行前に利用可能であり,また自然発生しているバグレポートの議論を,開発者による追加情報の必要性を回避して利用することを提案する。
このような議論から派生したさまざまな自然言語コンテキストがバグ修正に役立ち、オラクルのバグ修正コミットに対応するコミットメッセージの使用よりもパフォーマンスの向上につながることを実証する。
論文 参考訳(メタデータ) (2022-11-11T16:37:33Z) - Robust and Transferable Anomaly Detection in Log Data using Pre-Trained
Language Models [59.04636530383049]
クラウドのような大規模コンピュータシステムにおける異常や障害は、多くのユーザに影響を与える。
システム情報の主要なトラブルシューティングソースとして,ログデータの異常検出のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-23T09:17:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。