論文の概要: LLM-Explorer: Towards Efficient and Affordable LLM-based Exploration for Mobile Apps
- arxiv url: http://arxiv.org/abs/2505.10593v1
- Date: Thu, 15 May 2025 05:28:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:13.268913
- Title: LLM-Explorer: Towards Efficient and Affordable LLM-based Exploration for Mobile Apps
- Title(参考訳): LLM-Explorer: モバイルアプリのための効率的なLLMベースの探索を目指して
- Authors: Shanhui Zhao, Hao Wen, Wenjie Du, Cheng Liang, Yunxin Liu, Xiaozhou Ye, Ye Ouyang, Yuanchun Li,
- Abstract要約: 大規模言語モデル(LLM)は、モバイルアプリの探索を自動化する新たな機会を開いた。
探索中の多くの行動は必要とせず、またLLMの能力に偏っている可能性があるため、このような広範囲にわたるLLMの使用は必要でも有効でもないと論じる。
LLM-Explorerは,効率と可利用性に配慮した新しい探索エージェントである。
- 参考スコア(独自算出の注目度): 12.95765484886394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have opened new opportunities for automated mobile app exploration, an important and challenging problem that used to suffer from the difficulty of generating meaningful UI interactions. However, existing LLM-based exploration approaches rely heavily on LLMs to generate actions in almost every step, leading to a huge cost of token fees and computational resources. We argue that such extensive usage of LLMs is neither necessary nor effective, since many actions during exploration do not require, or may even be biased by the abilities of LLMs. Further, based on the insight that a precise and compact knowledge plays the central role for effective exploration, we introduce LLM-Explorer, a new exploration agent designed for efficiency and affordability. LLM-Explorer uses LLMs primarily for maintaining the knowledge instead of generating actions, and knowledge is used to guide action generation in a LLM-less manner. Based on a comparison with 5 strong baselines on 20 typical apps, LLM-Explorer was able to achieve the fastest and highest coverage among all automated app explorers, with over 148x lower cost than the state-of-the-art LLM-based approach.
- Abstract(参考訳): 大規模言語モデル(LLM)は、意味のあるUIインタラクションを生成することの難しさに悩まされていた重要で困難な問題である、モバイルアプリの自動探索の新たな機会を開放した。
しかし、既存の LLM ベースの探索手法は LLM に大きく依存し、ほとんど全てのステップでアクションを生成する。
探索中の多くの動作は必要とせず,LLMの能力に偏っている可能性があるため,このような広範囲にわたるLLMの使用は必要でも有効でもない,と我々は主張する。
さらに, 高精度かつコンパクトな知識が効果的な探索の中心的な役割を担っているという知見に基づいて, 効率と可利用性に配慮した新たな探索エージェントであるLSM-Explorerを紹介した。
LLM-Explorerは、主に行動を生成する代わりに知識を維持するためにLLMを使用し、LLMのない方法で行動生成を導くために知識が使用される。
LLM-Explorerは、20の典型的なアプリの5つの強力なベースラインと比較して、すべての自動化されたアプリエクスプローラの中で、最も高速で高いカバレッジを達成することができた。
関連論文リスト
- Should You Use Your Large Language Model to Explore or Exploit? [55.562545113247666]
探索・探索トレードオフに直面した意思決定エージェントを支援するために,大規模言語モデルの能力を評価する。
現在のLLMは、しばしば利用に苦労するが、小規模タスクのパフォーマンスを大幅に改善するために、コンテキスト内緩和が用いられる可能性がある。
論文 参考訳(メタデータ) (2025-01-31T23:42:53Z) - WALL-E: World Alignment by Rule Learning Improves World Model-based LLM Agents [55.64361927346957]
大規模言語モデル(LLM)による規則の勾配なし学習のためのニューロシンボリックアプローチを提案する。
我々のLLMエージェントWALL-Eはモデル予測制御(MPC)上に構築されている
MinecraftとALFWorldにおけるオープンワールドの課題について、WALL-Eは既存の方法よりも高い成功率を達成する。
論文 参考訳(メタデータ) (2024-10-09T23:37:36Z) - Small Models, Big Insights: Leveraging Slim Proxy Models To Decide When and What to Retrieve for LLMs [60.40396361115776]
本稿では,スリムプロキシモデルを用いた大規模言語モデル (LLM) における知識不足を検知する新しい協調手法であるSlimPLMを提案する。
パラメータがはるかに少ないプロキシモデルを採用し、回答を回答としています。
ヒューリスティックな回答は、LLM内の既知の未知の知識と同様に、ユーザの質問に答えるために必要な知識を予測するのに使用される。
論文 参考訳(メタデータ) (2024-02-19T11:11:08Z) - Enabling Intelligent Interactions between an Agent and an LLM: A Reinforcement Learning Approach [31.6589518077397]
大規模言語モデル(LLM)は、大量のテキストデータセットから得られた膨大な量の世界の知識を符号化する。
LLMは、高レベルな命令を提供することで、複雑なシーケンシャルな意思決定タスクを解決するための実施エージェントを支援することができる。
本研究では,高レベルの命令に対してLLMを問合せする必要がある場合に学習する強化学習ベースのアプローチである When2Ask を提案する。
論文 参考訳(メタデータ) (2023-06-06T11:49:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。