論文の概要: AI-Guided Exploration of Large-Scale Codebases
- arxiv url: http://arxiv.org/abs/2508.05799v1
- Date: Thu, 07 Aug 2025 19:15:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.99272
- Title: AI-Guided Exploration of Large-Scale Codebases
- Title(参考訳): 大規模コードベースのAIガイドによる探索
- Authors: Yoseph Berhanu Alebachew,
- Abstract要約: 大きな言語モデル(LLM)は、コードの探索を強化する新しい機会を提供する。
大規模言語モデル(LLM)の最近の進歩は、コードの探索を強化する新しい機会を提供する。
この研究は、リバースエンジニアリングとLLM誘導型、意図認識型視覚探索を統合するハイブリッドアプローチを導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding large-scale, complex software systems is a major challenge for developers, who spend a significant portion of their time on program comprehension. Traditional tools such as static visualizations and reverse engineering techniques provide structural insights but often lack interactivity, adaptability, and integration with contextual information. Recent advancements in large language models (LLMs) offer new opportunities to enhance code exploration workflows, yet their lack of grounding and integration with structured views limits their effectiveness. This work introduces a hybrid approach that integrates deterministic reverse engineering with LLM-guided, intent-aware visual exploration. The proposed system combines UML-based visualization, dynamic user interfaces, historical context, and collaborative features into an adaptive tool for code comprehension. By interpreting user queries and interaction patterns, the LLM helps developers navigate and understand complex codebases more effectively. A prototype implementation for Java demonstrates the feasibility of this approach. Future work includes empirical evaluation, scaling to polyglot systems, and exploring GUI-driven LLM interaction models. This research lays the groundwork for intelligent, interactive environments that align with developer cognition and collaborative workflows.
- Abstract(参考訳): 大規模で複雑なソフトウェアシステムを理解することは、プログラムの理解に多くの時間を費やしている開発者にとって大きな課題である。
静的視覚化やリバースエンジニアリング技術といった従来のツールは、構造的な洞察を提供するが、対話性、適応性、コンテキスト情報との統合が欠如していることが多い。
大規模言語モデル(LLM)の最近の進歩は、コード探索ワークフローを強化する新たな機会を提供するが、基盤の欠如と構造化ビューとの統合により、その効果が制限される。
この研究は、決定論的リバースエンジニアリングとLLM誘導型、意図認識型視覚探索を統合するハイブリッドアプローチを導入する。
提案システムでは,UML ベースの可視化,動的ユーザインタフェース,履歴コンテキスト,協調機能などをコード理解のための適応ツールに組み込む。
ユーザクエリとインタラクションパターンを解釈することで、LLMは開発者が複雑なコードベースをより効率的にナビゲートし理解するのに役立つ。
Javaのプロトタイプ実装は、このアプローチの実現可能性を示している。
今後の研究には、経験的評価、多言語システムへのスケーリング、GUI駆動のLLMインタラクションモデルの調査などが含まれる。
この研究は、開発者の認知と協調的なワークフローに沿ったインテリジェントでインタラクティブな環境の基盤となる。
関連論文リスト
- MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - API Agents vs. GUI Agents: Divergence and Convergence [37.13923771130588]
APIとGUIベースの大規模言語モデル(LLM)は、グラフィカルなユーザインターフェースを人間的な方法で操作する。
本稿では,それらの分散と潜在的収束を系統的に解析する。
LLMベースの自動化における継続的なイノベーションは、APIとGUI駆動エージェントの境界線を曖昧にする可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-03-14T04:26:21Z) - InterChat: Enhancing Generative Visual Analytics using Multimodal Interactions [22.007942964950217]
視覚要素の直接操作と自然言語入力を組み合わせた生成的視覚分析システムであるInterChatを開発した。
この統合により、正確なインテント通信が可能になり、プログレッシブで視覚的に駆動された探索データ分析をサポートする。
論文 参考訳(メタデータ) (2025-03-06T05:35:19Z) - Creating an LLM-based AI-agent: A high-level methodology towards enhancing LLMs with APIs [0.0]
大規模言語モデル(LLM)は、工学と科学の様々な側面に革命をもたらした。
この論文は総合的なガイドとして機能し、アプリケーションプログラミングインタフェース(API)を活用する能力を備えたLLMの強化のための多面的アプローチを解明する。
本稿では,Hugging Faceコミュニティの小さなモデルを用いて,携帯端末の機能を活用したオンデバイスアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:14:04Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - DoraemonGPT: Toward Understanding Dynamic Scenes with Large Language Models (Exemplified as A Video Agent) [73.10899129264375]
本稿では,LLMによる動的シーン理解のための包括的かつ概念的にエレガントなシステムであるドラモンGPTについて検討する。
質問/タスクのあるビデオが与えられた場合、DoraemonGPTは入力されたビデオをタスク関連の属性を格納するシンボリックメモリに変換することから始める。
我々は,DoraemonGPTの有効性を,3つのベンチマークといくつかのアプリ内シナリオで広範囲に評価した。
論文 参考訳(メタデータ) (2024-01-16T14:33:09Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。