論文の概要: CangLing-KnowFlow: A Unified Knowledge-and-Flow-fused Agent for Comprehensive Remote Sensing Applications
- arxiv url: http://arxiv.org/abs/2512.15231v1
- Date: Wed, 17 Dec 2025 09:31:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.920518
- Title: CangLing-KnowFlow: A Unified Knowledge-and-Flow-fused Agent for Comprehensive Remote Sensing Applications
- Title(参考訳): CangLing-KnowFlow: 総合的リモートセンシングのための知識・フロー融合エージェント
- Authors: Zhengchao Chen, Haoran Wang, Jing Yao, Pedram Ghamisi, Jun Zhou, Peter M. Atkinson, Bing Zhang,
- Abstract要約: 本稿では,CangLing-KnowFlowについて紹介する。CangLing-KnowFlowは,手続き調整と進化記憶モジュールを統合したインテリジェントエージェントフレームワークである。
実行時の障害の間、Dynamic Adjustmentは計画と診断をガイドし、Evolutionary Memory Moduleはこれらのイベントから継続的に学習する。
このシナジーにより、CangLing-KnowFlowは様々なランタイムタスクに適応し、学習し、確実に動作する。
- 参考スコア(独自算出の注目度): 25.74279545322058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automated and intelligent processing of massive remote sensing (RS) datasets is critical in Earth observation (EO). Existing automated systems are normally task-specific, lacking a unified framework to manage diverse, end-to-end workflows--from data preprocessing to advanced interpretation--across diverse RS applications. To address this gap, this paper introduces CangLing-KnowFlow, a unified intelligent agent framework that integrates a Procedural Knowledge Base (PKB), Dynamic Workflow Adjustment, and an Evolutionary Memory Module. The PKB, comprising 1,008 expert-validated workflow cases across 162 practical RS tasks, guides planning and substantially reduces hallucinations common in general-purpose agents. During runtime failures, the Dynamic Workflow Adjustment autonomously diagnoses and replans recovery strategies, while the Evolutionary Memory Module continuously learns from these events, iteratively enhancing the agent's knowledge and performance. This synergy enables CangLing-KnowFlow to adapt, learn, and operate reliably across diverse, complex tasks. We evaluated CangLing-KnowFlow on the KnowFlow-Bench, a novel benchmark of 324 workflows inspired by real-world applications, testing its performance across 13 top Large Language Model (LLM) backbones, from open-source to commercial. Across all complex tasks, CangLing-KnowFlow surpassed the Reflexion baseline by at least 4% in Task Success Rate. As the first most comprehensive validation along this emerging field, this research demonstrates the great potential of CangLing-KnowFlow as a robust, efficient, and scalable automated solution for complex EO challenges by leveraging expert knowledge (Knowledge) into adaptive and verifiable procedures (Flow).
- Abstract(参考訳): 大規模なリモートセンシング(RS)データセットの自動化とインテリジェントな処理は、地球観測(EO)において重要である。
既存の自動化システムは、通常タスク固有のもので、データ前処理から高度な解釈まで、多様なエンドツーエンドワークフローを管理する統一されたフレームワークが欠如している。
このギャップに対処するため、本稿では、手続き的知識ベース(PKB)、動的ワークフロー調整、進化的メモリモジュールを統合したインテリジェントエージェントフレームワークであるCangLing-KnowFlowを紹介する。
PKBは162の実践的RSタスクにまたがる1008のエキスパート検証ワークフローケースから構成され、汎用エージェントに共通する幻覚を実質的に低減する。
実行時の障害の間、Dynamic Workflow Adjustmentは自動でリカバリ戦略を診断し、再計画する一方、Evolutionary Memory Moduleはこれらのイベントから継続的に学習し、エージェントの知識とパフォーマンスを反復的に向上させる。
このシナジーにより、CangLing-KnowFlowは多様な複雑なタスクに適応し、学習し、確実に動作する。
私たちはCangLing-KnowFlowをKnowFlow-Benchという,現実世界のアプリケーションにインスパイアされた324のワークフローの新しいベンチマークで評価しました。
すべての複雑なタスクにおいて、CangLing-KnowFlowはReflexionベースラインを少なくともタスク成功率の4%以上上回った。
今回の研究は、CangLing-KnowFlowが、専門家の知識(Knowledge)を適応的で検証可能な手順(Flow)に活用することで、複雑なEO課題に対して、堅牢で効率的でスケーラブルな自動化ソリューションであることを示す。
関連論文リスト
- Solving Context Window Overflow in AI Agents [0.0]
大規模言語モデル(LLM)は、外部ツールとのインタラクションが可能になり、トレーニングデータ以外の特別な知識にアクセスできるようになる。
トランケーションや要約のような既存のソリューションは完全な出力を保存することができず、完全なデータを必要とする作業には適さない。
本稿では,LLMが情報を失うことなく任意の長さのツール応答を処理し,利用できるようにする手法を提案する。
論文 参考訳(メタデータ) (2025-11-27T19:22:20Z) - WebSailor-V2: Bridging the Chasm to Proprietary Agents via Synthetic Data and Scalable Reinforcement Learning [73.91893534088798]
WebSailorは、この重要な機能を組み込むように設計された、完全なポストトレーニング方法論である。
我々のアプローチは、構造化サンプリングと情報難読化によって、新しい、不確実なタスクを生成することである。
WebSailorは複雑な情報検索タスクにおいて、すべてのオープンソースエージェントを著しく上回る。
論文 参考訳(メタデータ) (2025-09-16T17:57:03Z) - Leveraging Knowledge Graphs and LLM Reasoning to Identify Operational Bottlenecks for Warehouse Planning Assistance [1.2749527861829046]
我々のフレームワークは知識グラフ(KG)とLarge Language Model(LLM)ベースのエージェントを統合している。
生のDESデータを意味的にリッチなKGに変換し、シミュレーションイベントとエンティティの関係をキャプチャする。
LLMベースのエージェントは反復推論を使用し、相互依存的なサブクエストを生成する。各サブクエストに対して、KGインタラクションのためのCypherクエリを生成し、情報を抽出し、エラーを修正する。
論文 参考訳(メタデータ) (2025-07-23T07:18:55Z) - Learning Task Representations from In-Context Learning [67.66042137487287]
大規模言語モデル(LLM)は、文脈内学習(ICL)において顕著な習熟性を示した。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法は,テキスト中の実演からタスク固有の情報を抽出し,テキストと回帰タスクの両方で優れる。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Benchmarking Agentic Workflow Generation [80.74757493266057]
複数面シナリオと複雑なグラフワークフロー構造を備えた統合ワークフロー生成ベンチマークであるWorfBenchを紹介する。
また,サブシーケンスとサブグラフマッチングアルゴリズムを利用したシステム評価プロトコルWorfEvalを提案する。
我々は、生成されたタスクが下流のタスクを強化し、推論中により少ない時間で優れたパフォーマンスを達成することを観察する。
論文 参考訳(メタデータ) (2024-10-10T12:41:19Z) - FlowBench: Revisiting and Benchmarking Workflow-Guided Planning for LLM-based Agents [64.1759086221016]
ワークフロー誘導計画の最初のベンチマークであるFlowBenchを紹介します。
FlowBenchは6つのドメインから51のシナリオをカバーしている。
以上の結果から,現在のLLMエージェントは良好な計画を立てるためにかなりの改善が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-06-21T06:13:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。