論文の概要: Evaluating the Use of LLMs for Automated DOM-Level Resolution of Web Performance Issues
- arxiv url: http://arxiv.org/abs/2601.05502v1
- Date: Fri, 09 Jan 2026 03:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.827184
- Title: Evaluating the Use of LLMs for Automated DOM-Level Resolution of Web Performance Issues
- Title(参考訳): Webパフォーマンス問題のDOMレベル自動解決におけるLLMの利用評価
- Authors: Gideon Peters, SayedHassan Khatoonabadi, Emad Shihab,
- Abstract要約: 本研究は文書オブジェクトモデル(DOM)の変更に焦点を当てる。
大規模言語モデル(LLM)の最近の進歩は、この複雑なタスクを自動化するための有望な道を提供する。
本研究は、Webパフォーマンス自動解決のための9つの最先端LCMの有効性を評価する。
- 参考スコア(独自算出の注目度): 3.9189409002585567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Users demand fast, seamless webpage experiences, yet developers often struggle to meet these expectations within tight constraints. Performance optimization, while critical, is a time-consuming and often manual process. One of the most complex tasks in this domain is modifying the Document Object Model (DOM), which is why this study focuses on it. Recent advances in Large Language Models (LLMs) offer a promising avenue to automate this complex task, potentially transforming how developers address web performance issues. This study evaluates the effectiveness of nine state-of-the-art LLMs for automated web performance issue resolution. For this purpose, we first extracted the DOM trees of 15 popular webpages (e.g., Facebook), and then we used Lighthouse to retrieve their performance audit reports. Subsequently, we passed the extracted DOM trees and corresponding audits to each model for resolution. Our study considers 7 unique audit categories, revealing that LLMs universally excel at SEO & Accessibility issues. However, their efficacy in performance-critical DOM manipulations is mixed. While high-performing models like GPT-4.1 delivered significant reductions in areas like Initial Load, Interactivity, and Network Optimization (e.g., 46.52% to 48.68% audit incidence reductions), others, such as GPT-4o-mini, notably underperformed, consistently. A further analysis of these modifications showed a predominant additive strategy and frequent positional changes, alongside regressions particularly impacting Visual Stability.
- Abstract(参考訳): ユーザは高速でシームレスなWebページエクスペリエンスを要求するが、開発者は厳しい制約の中でこれらの期待を満たすのに苦労することが多い。
パフォーマンスの最適化は、重要ではあるが、時間を要する、しばしば手動のプロセスである。
この領域でもっとも複雑なタスクの1つは、ドキュメントオブジェクトモデル(DOM)を変更することである。
最近のLLM(Large Language Models)の進歩は、開発者がWebパフォーマンス問題に対処する方法を変える可能性のある、この複雑なタスクを自動化するための有望な道を提供する。
本研究は、Webパフォーマンス自動解決のための9つの最先端LCMの有効性を評価する。
この目的のために、まず15の人気のあるWebページ(例えばFacebook)のDOMツリーを抽出し、それからLighthouseを使ってパフォーマンス監査レポートを検索しました。
その後、抽出したDOMツリーとそれに対応する監査を各モデルに渡して解決した。
本研究は,SEOとアクセシビリティの問題においてLLMが普遍的に優れていることを明らかにする,7つのユニークな監査カテゴリーについて考察した。
しかし、パフォーマンスクリティカルなDOM操作におけるそれらの有効性は混在している。
GPT-4.1のような高性能モデルは初期負荷、インターアクティビティ、ネットワーク最適化(例:46.52%から48.68%の監査インシデント削減)などの領域で大幅な性能低下をもたらしたが、GPT-4o-mini(特に性能の低下)は一貫して性能の低下を招いた。
これらの修正のさらなる分析は、特に視覚安定に影響を及ぼす回帰とともに、主に付加的な戦略と頻繁な位置変化を示した。
関連論文リスト
- ReGUIDE: Data Efficient GUI Grounding via Spatial Reasoning and Search [53.40810298627443]
ReGUIDEは、MLLMが自己生成的推論と空間認識的批判を通じてデータを効率的に学習することを可能にするWebグラウンドのためのフレームワークである。
実験により、ReGUIDEは複数のベンチマークでWebグラウンド性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-05-21T08:36:18Z) - Can LLMs Handle WebShell Detection? Overcoming Detection Challenges with Behavioral Function-Aware Framework [16.01977601326411]
WebShellの攻撃は、重大なサイバーセキュリティの脅威となる。
従来のMLとDLメソッドは、広範囲なトレーニングデータの必要性などの課題によって、しばしば妨げられる。
コード関連タスクの強力な代替手段として、大規模言語モデルが登場しました。
論文 参考訳(メタデータ) (2025-04-14T21:09:37Z) - Adaptive Distraction: Probing LLM Contextual Robustness with Automated Tree Search [76.54475437069395]
大きな言語モデル(LLM)は、意味的に一貫性があるがタスクに依存しないコンテキスト情報に直面している場合、元のパフォーマンスを維持するのに苦労することが多い。
本稿では,木探索に基づく動的散逸生成フレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-03T18:43:36Z) - The BrowserGym Ecosystem for Web Agent Research [151.90034093362343]
BrowserGymエコシステムは、Webエージェントの効率的な評価とベンチマークの必要性の高まりに対処する。
本稿では,Webエージェント研究のためのBrowserGymベースの拡張エコシステムを提案する。
大規模なマルチベンチマークWebエージェント実験を初めて実施し、6つのWebエージェントベンチマークで6つの最先端LCMの性能を比較した。
論文 参考訳(メタデータ) (2024-12-06T23:43:59Z) - Mixing It Up: The Cocktail Effect of Multi-Task Fine-Tuning on LLM Performance -- A Case Study in Finance [0.32985979395737774]
本稿では,ドメイン固有タスクのための細調整型大規模言語モデル (LLM) の詳細な解析を行う。
ドメイン固有のケースでは、ターゲットタスクのみを微調整することが、必ずしも最も効果的な戦略ではないことが分かりました。
我々は、Phi-3-Miniのような小さなモデルが、どのようにして最先端の結果が得られるかを実証する。
論文 参考訳(メタデータ) (2024-10-01T22:35:56Z) - Fine-Tuning or Fine-Failing? Debunking Performance Myths in Large Language Models [0.8399688944263842]
大きな言語モデル(LLM)は、入力クエリから人間のようなテキストを理解し、生成する能力を持つ。
本研究では、この概念を、レトリーバル拡張生成(RAG)パイプライン内のLLMの統合に拡張する。
データ抽出と文脈理解における微調整がLLMの能力に与える影響を評価する。
論文 参考訳(メタデータ) (2024-06-17T04:35:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。