論文の概要: Atomix: Timely, Transactional Tool Use for Reliable Agentic Workflows
- arxiv url: http://arxiv.org/abs/2602.14849v1
- Date: Mon, 16 Feb 2026 15:46:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:50.489036
- Title: Atomix: Timely, Transactional Tool Use for Reliable Agentic Workflows
- Title(参考訳): Atomix: 信頼性の高いエージェントワークフローに使用されるタイムリーでトランザクショナルなツール
- Authors: Bardia Mohammadi, Nearchos Potamitis, Lars Klein, Akhil Arora, Laurent Bindschaedler,
- Abstract要約: Atomixは、エージェントツールコールのためのプログレスアウェアなトランザクションセマンティクスを提供するランタイムである。
Atomixは各コールをエポックでタグ付けし、リソースごとのフロンティアを追跡し、進捗予測が安全性を示す場合にのみコミットする。
- 参考スコア(独自算出の注目度): 3.1978093202244704
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LLM agents increasingly act on external systems, yet tool effects are immediate. Under failures, speculation, or contention, losing branches can leak unintended side effects with no safe rollback. We introduce Atomix, a runtime that provides progress-aware transactional semantics for agent tool calls. Atomix tags each call with an epoch, tracks per-resource frontiers, and commits only when progress predicates indicate safety; bufferable effects can be delayed, while externalized effects are tracked and compensated on abort. Across real workloads with fault injection, transactional retry improves task success, while frontier-gated commit strengthens isolation under speculation and contention.
- Abstract(参考訳): LLMエージェントはますます外部システムに作用するが、ツール効果は即時である。
失敗、憶測、競合の下では、失った枝は、安全なロールバックなしで意図しない副作用をリークする可能性がある。
Atomixは、エージェントツールコールに進捗対応のトランザクションセマンティクスを提供するランタイムです。
Atomixは各コールをepochでタグ付けし、リソース単位のフロンティアを追跡し、進捗予測が安全性を示す場合にのみコミットする。
障害注入による実際のワークロード全体にわたって、トランザクションの再試行はタスクの成功を改善し、フロンティアゲートコミットは憶測と競合の下で分離を強化する。
関連論文リスト
- CausalArmor: Efficient Indirect Prompt Injection Guardrails via Causal Attribution [49.689452243966315]
ツールコール機能を備えたAIエージェントは、IPI(Indirect Prompt Injection)攻撃の影響を受けやすい。
本稿では,選択防衛フレームワークCausalArmorを提案する。
AgentDojoとDoomArenaの実験は、CausalArmorが攻撃的な防御のセキュリティと一致することを示した。
論文 参考訳(メタデータ) (2026-02-08T11:34:08Z) - The Bitter Lesson of Diffusion Language Models for Agentic Workflows: A Comprehensive Reality Check [54.08619694620588]
本稿では,2つの異なるエージェントパラダイムであるEmbodied AgentsとTool-Calling AgentsにまたがるdLLMの包括的評価を行う。
Agentboard と BFCL では,現在の dLLM が信頼できるエージェントバックボーンとして機能しないという,"ビットレッスン" が報告されている。
論文 参考訳(メタデータ) (2026-01-19T11:45:39Z) - RoboSafe: Safeguarding Embodied Agents via Executable Safety Logic [56.38397499463889]
視覚言語モデル(VLM)を利用するエージェントは、複雑な現実世界のタスクを実行する能力がますます高まっている。
しかし、安全でない行動を引き起こす可能性のある危険な指示に弱いままである。
提案するRoboSafeは,実行可能述語ベースの安全ロジックを通じて,エージェントを具体化するためのランタイムセーフガードである。
論文 参考訳(メタデータ) (2025-12-24T15:01:26Z) - MemoryGraft: Persistent Compromise of LLM Agents via Poisoned Experience Retrieval [5.734678752740074]
MemoryGraftは、エージェントの動作を即時ジェイルブレイクではなく、エージェントの長期記憶に悪質な成功体験を埋め込むことによって妥協する、新しい間接的インジェクション攻撃である。
エージェントが実行中に読み取る良質な摂取レベルのアーティファクトを供給できる攻撃者は、それを誘導して有毒なRAGストアを構築することができることを示す。
エージェントが後に意味論的に類似したタスクに遭遇すると、語彙テンプレート上の結合検索と埋め込み類似性は、これらのグラフトされた記憶を確実に表面化し、エージェントは埋め込みされた安全でないパターンを採用し、セッション間の永続的な行動的ドリフトをもたらす。
論文 参考訳(メタデータ) (2025-12-18T08:34:40Z) - Fault-Tolerant Sandboxing for AI Coding Agents: A Transactional Approach to Safe Autonomous Execution [1.3537117504260623]
本稿では,これらのリスクを軽減するために設計されたフォールトトレラントサンドボックスフレームワークを提案する。
我々は、アトミックトランザクションにおけるエージェントアクションのラップは、許容できるレイテンシで安全性を保証することができると仮定する。
実験により、高リスクコマンドに対する100%のインターセプション率と、ロールバック失敗状態における100%の成功率が示された。
論文 参考訳(メタデータ) (2025-12-14T19:03:59Z) - VIGIL: A Reflective Runtime for Self-Healing Agents [0.0]
本稿では、兄弟エージェントを監督し、タスク実行よりも自律的なメンテナンスを行う反射型ランタイムVIGILを提案する。
VIGILは行動ログを取り込み、各イベントを構造化された感情表現に評価し、崩壊と文脈ポリシーを備えたEmoBankを維持し、最近の行動を強み、機会、失敗に分類するRTT診断を導出する。
論文 参考訳(メタデータ) (2025-12-08T02:18:41Z) - Multi-Agent Collaborative Fuzzing with Continuous Reflection for Smart Contracts Vulnerability Detection [16.160978409552182]
SmartFuzzは、スマートコントラクト脆弱性検出のための新しいコラボレーティブリフレクティブファザである。
ファジングエンジンとして大きな言語モデル駆動エージェントを採用し、学習と反映によって継続的に改善されている。
30分以内に5.8%-74.7%以上の脆弱性を検出し、(ii)偽陰性を最大80%減少させる。
論文 参考訳(メタデータ) (2025-11-15T11:21:56Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。