論文の概要: AI-Guided Exploration of Large-Scale Codebases
- arxiv url: http://arxiv.org/abs/2508.05799v1
- Date: Thu, 07 Aug 2025 19:15:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:05.99272
- Title: AI-Guided Exploration of Large-Scale Codebases
- Title(参考訳): 大規模コードベースのAIガイドによる探索
- Authors: Yoseph Berhanu Alebachew,
- Abstract要約: 大きな言語モデル(LLM)は、コードの探索を強化する新しい機会を提供する。
大規模言語モデル(LLM)の最近の進歩は、コードの探索を強化する新しい機会を提供する。
この研究は、リバースエンジニアリングとLLM誘導型、意図認識型視覚探索を統合するハイブリッドアプローチを導入している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Understanding large-scale, complex software systems is a major challenge for developers, who spend a significant portion of their time on program comprehension. Traditional tools such as static visualizations and reverse engineering techniques provide structural insights but often lack interactivity, adaptability, and integration with contextual information. Recent advancements in large language models (LLMs) offer new opportunities to enhance code exploration workflows, yet their lack of grounding and integration with structured views limits their effectiveness. This work introduces a hybrid approach that integrates deterministic reverse engineering with LLM-guided, intent-aware visual exploration. The proposed system combines UML-based visualization, dynamic user interfaces, historical context, and collaborative features into an adaptive tool for code comprehension. By interpreting user queries and interaction patterns, the LLM helps developers navigate and understand complex codebases more effectively. A prototype implementation for Java demonstrates the feasibility of this approach. Future work includes empirical evaluation, scaling to polyglot systems, and exploring GUI-driven LLM interaction models. This research lays the groundwork for intelligent, interactive environments that align with developer cognition and collaborative workflows.
- Abstract(参考訳): 大規模で複雑なソフトウェアシステムを理解することは、プログラムの理解に多くの時間を費やしている開発者にとって大きな課題である。
静的視覚化やリバースエンジニアリング技術といった従来のツールは、構造的な洞察を提供するが、対話性、適応性、コンテキスト情報との統合が欠如していることが多い。
大規模言語モデル(LLM)の最近の進歩は、コード探索ワークフローを強化する新たな機会を提供するが、基盤の欠如と構造化ビューとの統合により、その効果が制限される。
この研究は、決定論的リバースエンジニアリングとLLM誘導型、意図認識型視覚探索を統合するハイブリッドアプローチを導入する。
提案システムでは,UML ベースの可視化,動的ユーザインタフェース,履歴コンテキスト,協調機能などをコード理解のための適応ツールに組み込む。
ユーザクエリとインタラクションパターンを解釈することで、LLMは開発者が複雑なコードベースをより効率的にナビゲートし理解するのに役立つ。
Javaのプロトタイプ実装は、このアプローチの実現可能性を示している。
今後の研究には、経験的評価、多言語システムへのスケーリング、GUI駆動のLLMインタラクションモデルの調査などが含まれる。
この研究は、開発者の認知と協調的なワークフローに沿ったインテリジェントでインタラクティブな環境の基盤となる。
関連論文リスト
- Decoding Human-LLM Collaboration in Coding: An Empirical Study of Multi-Turn Conversations in the Wild [15.241064679369407]
LMSYS-Chat-1MとWildChatのデータセットを用いて,人間とLLMのコーディングコラボレーションに関する実証分析を行った。
コード品質の最適化は線形パターン、デザイン駆動のタスクはツリー構造に傾き、クエリはスターパターンを好む。
この研究は、人間とLLMのシナジーの理解を広げ、より効果的なAI支援開発を支援すると信じている。
論文 参考訳(メタデータ) (2025-12-11T10:14:42Z) - From Code Foundation Models to Agents and Applications: A Practical Guide to Code Intelligence [150.3696990310269]
大規模言語モデル(LLM)は、自然言語記述を直接関数コードに変換することによって、自動ソフトウェア開発を変革した。
コードLLMに関する総合的な合成と実践的ガイド(一連の解析および探索実験)を提供する。
一般LLM(GPT-4, Claude, LLaMA)とコード特殊化LLM(StarCoder, Code LLaMA, DeepSeek-Coder, QwenCoder)のコード機能の解析を行う。
論文 参考訳(メタデータ) (2025-11-23T17:09:34Z) - Bridging Collaborative Filtering and Large Language Models with Dynamic Alignment, Multimodal Fusion and Evidence-grounded Explanations [1.3702600718499687]
軽量モジュールによる新しいユーザインタラクションを組み込んだオンライン適応機構を開発した。
我々は、協調的な信号と視覚的および音声的特徴をシームレスに結合する統一表現を作成します。
提案手法では,凍結ベースモデルの効率性を維持しつつ,計算オーバーヘッドを最小限に抑え,実世界の展開に有効である。
論文 参考訳(メタデータ) (2025-10-02T02:43:24Z) - MLE-Dojo: Interactive Environments for Empowering LLM Agents in Machine Learning Engineering [57.156093929365255]
自律型大規模言語モデル(LLM)エージェントを体系的に強化し、評価し、改善するためのガイムスタイルのフレームワーク。
MLE-Dojoは、現実的なエンジニアリングシナリオを反映した、多様でオープンなMLEタスクを慎重にキュレートする。
完全に実行可能な環境は、教師付き微調整と強化学習の両方を通して包括的なエージェントトレーニングをサポートする。
論文 参考訳(メタデータ) (2025-05-12T17:35:43Z) - API Agents vs. GUI Agents: Divergence and Convergence [37.13923771130588]
APIとGUIベースの大規模言語モデル(LLM)は、グラフィカルなユーザインターフェースを人間的な方法で操作する。
本稿では,それらの分散と潜在的収束を系統的に解析する。
LLMベースの自動化における継続的なイノベーションは、APIとGUI駆動エージェントの境界線を曖昧にする可能性があることを示唆している。
論文 参考訳(メタデータ) (2025-03-14T04:26:21Z) - InterChat: Enhancing Generative Visual Analytics using Multimodal Interactions [22.007942964950217]
視覚要素の直接操作と自然言語入力を組み合わせた生成的視覚分析システムであるInterChatを開発した。
この統合により、正確なインテント通信が可能になり、プログレッシブで視覚的に駆動された探索データ分析をサポートする。
論文 参考訳(メタデータ) (2025-03-06T05:35:19Z) - Creating an LLM-based AI-agent: A high-level methodology towards enhancing LLMs with APIs [0.0]
大規模言語モデル(LLM)は、工学と科学の様々な側面に革命をもたらした。
この論文は総合的なガイドとして機能し、アプリケーションプログラミングインタフェース(API)を活用する能力を備えたLLMの強化のための多面的アプローチを解明する。
本稿では,Hugging Faceコミュニティの小さなモデルを用いて,携帯端末の機能を活用したオンデバイスアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-17T14:14:04Z) - RA-BLIP: Multimodal Adaptive Retrieval-Augmented Bootstrapping Language-Image Pre-training [55.54020926284334]
近年,MLLM (Multimodal Large Language Models) が注目されている。
検索拡張技術はLLMとMLLMの両方に有効なプラグインであることが証明されている。
本研究では,MLLMの新しい検索支援フレームワークであるRA-BLIP(Retrieval-Augmented Bootstrapping Language-Image Pre-training)を提案する。
論文 参考訳(メタデータ) (2024-10-18T03:45:19Z) - ClawMachine: Learning to Fetch Visual Tokens for Referential Comprehension [71.03445074045092]
我々はClawMachineを提案し、視覚トークンのグループのトークン集合を用いて各エンティティに明示的に通知する新しい方法論を提案する。
追加構文を用いることなく視覚的参照タスクのプロンプトと応答を統一する手法を提案する。
ClawMachineは、高い効率でシーンレベルおよび参照理解タスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-17T08:39:16Z) - DoraemonGPT: Toward Understanding Dynamic Scenes with Large Language Models (Exemplified as A Video Agent) [73.10899129264375]
本稿では,LLMによる動的シーン理解のための包括的かつ概念的にエレガントなシステムであるドラモンGPTについて検討する。
質問/タスクのあるビデオが与えられた場合、DoraemonGPTは入力されたビデオをタスク関連の属性を格納するシンボリックメモリに変換することから始める。
我々は,DoraemonGPTの有効性を,3つのベンチマークといくつかのアプリ内シナリオで広範囲に評価した。
論文 参考訳(メタデータ) (2024-01-16T14:33:09Z) - Towards More Unified In-context Visual Understanding [74.55332581979292]
マルチモーダル出力を有効にした視覚理解のための新しいICLフレームワークを提案する。
まず、テキストと視覚的プロンプトの両方を量子化し、統一された表現空間に埋め込む。
次にデコーダのみのスパーストランスアーキテクチャを用いて生成モデリングを行う。
論文 参考訳(メタデータ) (2023-12-05T06:02:21Z) - Low-code LLM: Graphical User Interface over Large Language Models [115.08718239772107]
本稿では,人間-LLMインタラクションフレームワークであるLow-code LLMを紹介する。
より制御可能で安定した応答を実現するために、6種類のシンプルなローコードビジュアルプログラミングインタラクションを組み込んでいる。
ユーザフレンドリなインタラクション,制御可能な生成,広い適用性という,低コード LLM の3つの利点を強調した。
論文 参考訳(メタデータ) (2023-04-17T09:27:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。