論文の概要: IronEngine: Towards General AI Assistant
- arxiv url: http://arxiv.org/abs/2603.08425v1
- Date: Mon, 09 Mar 2026 14:18:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:16.200787
- Title: IronEngine: Towards General AI Assistant
- Title(参考訳): IronEngine: 汎用AIアシスタントを目指して
- Authors: Xi Mo,
- Abstract要約: IronEngineは、統合オーケストレーションコアを中心に構成された、汎用AIアシスタントプラットフォームである。
本稿では, プラットフォームのアーキテクチャ分解, サブシステム設計, 実験性能, 安全性境界, 比較工学的優位性について分析する。
- 参考スコア(独自算出の注目度): 0.456877715768796
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper presents IronEngine, a general AI assistant platform organized around a unified orchestration core that connects a desktop user interface, REST and WebSocket APIs, Python clients, local and cloud model backends, persistent memory, task scheduling, reusable skills, 24-category tool execution, MCP-compatible extensibility, and hardware-facing integration. IronEngine introduces a three-phase pipeline -- Discussion (Planner--Reviewer collaboration), Model Switch (VRAM-aware transition), and Execution (tool-augmented action loop) -- that separates planning quality from execution capability. The system features a hierarchical memory architecture with multi-level consolidation, a vectorized skill repository backed by ChromaDB, an adaptive model management layer supporting 92 model profiles with VRAM-aware context budgeting, and an intelligent tool routing system with 130+ alias normalization and automatic error correction. We present experimental results on file operation benchmarks achieving 100\% task completion with a mean total time of 1541 seconds across four heterogeneous tasks, and provide detailed comparisons with representative AI assistant systems including ChatGPT, Claude Desktop, Cursor, Windsurf, and open-source agent frameworks. Without disclosing proprietary prompts or core algorithms, this paper analyzes the platform's architectural decomposition, subsystem design, experimental performance, safety boundaries, and comparative engineering advantages. The resulting study positions IronEngine as a system-oriented foundation for general-purpose personal assistants, automation frameworks, and future human-centered agent platforms.
- Abstract(参考訳): 本稿では,デスクトップユーザインターフェース,RESTおよびWebSocket API,Pythonクライアント,ローカルおよびクラウドモデルバックエンド,永続メモリ,タスクスケジューリング,再利用可能なスキル,24カテゴリツールの実行,MPP互換の拡張性,ハードウェア対応インテグレーションを接続する統合オーケストレーションコアを中心に構成された,一般的なAIアシスタントプラットフォームであるIronEngineを紹介する。
IronEngineでは,3フェーズのパイプライン – 議論(プラナー-リビューアコラボレーション),モデルスイッチ(VRAM対応移行),実行(ツール拡張アクションループ) – を導入して,計画品質と実行能力の分離を実現している。
このシステムは、マルチレベル統合を備えた階層型メモリアーキテクチャ、ChromaDBが支援するベクトル化スキルリポジトリ、VRAM対応のコンテキスト予算付き92モデルプロファイルをサポートする適応モデル管理層、130以上のエイリアス正規化と自動エラー修正を備えたインテリジェントツールルーティングシステムを備えている。
本稿では,ChatGPT,Claude Desktop,Cursor,Windsurf,オープンソースエージェントフレームワークなどの代表的なAIアシスタントシステムとの比較を行った。
本稿では,プロプライエタリなプロンプトやコアアルゴリズムを公開せずに,プラットフォームアーキテクチャの分解,サブシステム設計,実験性能,安全性境界,比較工学上の優位性を解析する。
その結果、IronEngineは汎用パーソナルアシスタント、自動化フレームワーク、将来の人間中心エージェントプラットフォームのためのシステム指向の基盤として位置づけられた。
関連論文リスト
- AIConfigurator: Lightning-Fast Configuration Optimization for Multi-Framework LLM Serving [16.664502126572856]
AIConfiguratorは、Large Language Model(LLM)推論のための統一されたパフォーマンスモデリングシステムである。
GPUベースのプロファイリングを必要とせずに、迅速なフレームワークベースの構成検索を可能にする。
これは、高密度モデルのパフォーマンスを最大40%向上させる優れたサービス構成を特定する。
論文 参考訳(メタデータ) (2026-01-09T20:03:57Z) - JoyAgent-JDGenie: Technical Report on the GAIA [27.025464023889853]
大規模言語モデルは、複雑な現実世界のタスクのための自律的なエージェントとして、ますます多くデプロイされている。
本稿では,計画および実行エージェントを批判モデル投票と統合する汎用エージェントアーキテクチャ,作業層,意味層,手続き層にまたがる階層型メモリシステム,検索,コード実行,マルチモーダル解析のための洗練されたツールスイートを提案する。
論文 参考訳(メタデータ) (2025-10-01T04:41:58Z) - Towards Agentic OS: An LLM Agent Framework for Linux Schedulers [3.8068085728995307]
我々は、完全に自律的な大規模言語モデル(LLM)エージェントが、人間の関与なしにLinuxスケジューラを安全かつ効率的に最適化できる、最初のフレームワークであるSchedCPを紹介した。
評価の結果,SchedCPの性能改善は最大1.79倍,コスト削減は有意なエージェントアプローチに比べて13倍であることがわかった。
論文 参考訳(メタデータ) (2025-09-01T08:38:49Z) - MMBench-GUI: Hierarchical Multi-Platform Evaluation Framework for GUI Agents [88.35544552383581]
MMBench-GUIは、Windows、Linux、iOS、Android、WebプラットフォームでGUI自動化エージェントを評価する階層的なベンチマークである。
GUIコンテンツ理解、要素グラウンディング、タスク自動化、タスクコラボレーションの4つのレベルで構成されており、GUIエージェントに必要なスキルをカバーしています。
論文 参考訳(メタデータ) (2025-07-25T17:59:26Z) - Integrated Hardware Architecture and Device Placement Search [7.620610652090732]
ディープラーニングトレーニングの分散実行には、ハードウェアアクセラレータアーキテクチャとデバイス配置戦略との動的相互作用が含まれる。
これは、最適なアーキテクチャとデバイス配置戦略を決定するための協調最適化を探求する最初の試みである。
提案手法は,最先端のTPUv4とSpotlightアクセラレーター検索フレームワークと比較して,大規模言語モデルにおいて高いスループットを実現する。
論文 参考訳(メタデータ) (2024-07-18T04:02:35Z) - CRAB: Cross-environment Agent Benchmark for Multimodal Language Model Agents [49.68117560675367]
Crabは、クロス環境タスクをサポートするように設計された最初のベンチマークフレームワークである。
私たちのフレームワークは複数のデバイスをサポートし、Pythonインターフェースで簡単に任意の環境に拡張できます。
実験の結果、GPT-4oの1剤が38.01%の最高完成率を達成することが示された。
論文 参考訳(メタデータ) (2024-07-01T17:55:04Z) - Elastic Architecture Search for Diverse Tasks with Different Resources [87.23061200971912]
本研究では,異なるリソースを持つ多様なタスクを効率的に配置する上で,クラス群に対応するリソース制約や関心のタスクをテスト時に動的に指定する,新たな課題について検討する。
従来のNASアプローチでは、全てのクラスのアーキテクチャを同時に設計することを模索しており、これはいくつかの個別のタスクに最適ではないかもしれない。
本稿では、様々なリソース制約のある多様なタスクに対して、実行時に即時特殊化を可能にする、Elastic Architecture Search (EAS)と呼ばれる斬新で一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-03T00:54:27Z) - Auto-Panoptic: Cooperative Multi-Component Architecture Search for
Panoptic Segmentation [144.50154657257605]
本稿では、バックボーン、セグメンテーションブランチ、フィーチャーフュージョンモジュールを含むすべての主要コンポーネントを同時に検索する効率的なフレームワークを提案する。
検索したアーキテクチャ、すなわちAuto-Panopticは、挑戦的なCOCOとADE20Kベンチマークに関する新しい最先端技術を実現します。
論文 参考訳(メタデータ) (2020-10-30T08:34:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。