論文の概要: Agentic AI for autonomous anomaly management in complex systems
- arxiv url: http://arxiv.org/abs/2507.15676v1
- Date: Mon, 21 Jul 2025 14:39:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.443513
- Title: Agentic AI for autonomous anomaly management in complex systems
- Title(参考訳): 複雑システムにおける自律的異常管理のためのエージェントAI
- Authors: Reza Vatankhah Barenji, Sina Khoshgoftar,
- Abstract要約: 本稿では,複雑なシステム内の異常を自律的に検出し,応答するエージェントAIの可能性について検討する。
従来の、人間に依存した異常管理方法を変革する能力を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores the potential of agentic AI in autonomously detecting and responding to anomalies within complex systems, emphasizing its ability to transform traditional, human-dependent anomaly management methods.
- Abstract(参考訳): 本稿では,複雑なシステム内の異常を自律的に検出し,応答するエージェントAIの可能性について検討し,従来の人間依存型異常管理手法を変革する能力を強調した。
関連論文リスト
- Threat Modeling for AI: The Case for an Asset-Centric Approach [0.23408308015481666]
AIシステムは、自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用することが可能になった。
AIシステムが自律的にコードを実行し、外部システムと対話し、人間の監視なしに運用できるようになったことで、従来のセキュリティアプローチは不足する。
本稿では、脅威モデリングAIシステムのための資産中心の方法論を紹介する。
論文 参考訳(メタデータ) (2025-05-08T18:57:08Z) - Perceptions of Agentic AI in Organizations: Implications for Responsible AI and ROI [0.0]
本稿では,エージェントAIの出現する状況の中で,組織がこのようなフレームワークをどのように認識し,適応するかを検討する。
エージェントAIシステムの本質的な複雑さと、その責任ある実装は、責任あるAI次元とテーマフレームワークの複雑な相互接続性に根ざし、組織的適応における重大な課題に寄与している。
論文 参考訳(メタデータ) (2025-04-15T19:15:06Z) - Large language model-powered AI systems achieve self-replication with no human intervention [17.629494096941386]
評価中の32のAIシステムのうち11が、すでに自己複製能力を持っていることを示す。
何百もの実験的実験において、我々は非自撮りな数の自己複製試験を観察する。
さらに注意すべきは、明示的な指示なしにAIシステムが自己濾過を行う成功事例を観察することである。
論文 参考訳(メタデータ) (2025-03-14T14:44:27Z) - Lessons from complexity theory for AI governance [1.6122472145662998]
複雑性理論は、政策立案者にとって中心的な課題となるAIの特徴を照らすのに役立つ。
我々は、AI管理の取り組みが深刻な不確実性によってどのように特徴付けられるかを検討する。
我々は,AIガバナンスのタイミングと構造に関して,複雑性に適合する一連の原則を提案する。
論文 参考訳(メタデータ) (2025-01-07T07:56:40Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Exploring Latent Pathways: Enhancing the Interpretability of Autonomous Driving with a Variational Autoencoder [79.70947339175572]
バイオインスパイアされたニューラルサーキットポリシーモデルが革新的な制御モジュールとして登場した。
我々は、変分オートエンコーダとニューラルネットワークポリシーコントローラを統合することで、飛躍的に前進する。
本研究は,変分オートエンコーダへのアーキテクチャシフトに加えて,自動潜時摂動ツールを導入する。
論文 参考訳(メタデータ) (2024-04-02T09:05:47Z) - Progressing from Anomaly Detection to Automated Log Labeling and
Pioneering Root Cause Analysis [53.24804865821692]
本研究では、ログ異常の分類を導入し、ラベル付けの課題を軽減するために、自動ラベリングについて検討する。
この研究は、根本原因分析が異常検出に続く未来を予見し、異常の根本原因を解明する。
論文 参考訳(メタデータ) (2023-12-22T15:04:20Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Multi-AI Complex Systems in Humanitarian Response [0.0]
比較的単純な現実世界の人道的応答シナリオにおいても、マルチAIシステムがいかにして発生しうるかを説明し、潜在的に創発的で不正な行動を引き起こす。
本論文は、人道的対応の分野におけるこのトピックに関する最初の展示として、意識を高め、このドメインの展望を探究し、より広いコミュニティにおける今後の仕事の出発点を提供するように設計されている。
論文 参考訳(メタデータ) (2022-08-24T03:01:21Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。