論文の概要: Emergence-as-Code for Self-Governing Reliable Systems
- arxiv url: http://arxiv.org/abs/2602.05458v1
- Date: Thu, 05 Feb 2026 09:04:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-06 18:49:08.853792
- Title: Emergence-as-Code for Self-Governing Reliable Systems
- Title(参考訳): 自己管理型信頼システムのための創発型コード
- Authors: Anatoly A. Krasnovsky,
- Abstract要約: 本稿では,エネルジェンス・アズ・コード(Emergence-as-Code,EmaC)を提案する。
EmaC仕様は、トラベルインテント(オブジェクト、制御フロー演算子、アクションの許容)を宣言し、SLOとテレメトリにバインドする。
実行時推論コンポーネントは、運用成果物(トレースやトラフィック設定など)を消費し、証明と信頼性を備えた候補走行モデルを合成する。
匿名化されたアーティファクトリポジトリは、実行サンプル仕様と生成された出力を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: SLO-as-code has made per-service} reliability declarative, but user experience is defined by journeys whose reliability is an emergent property of microservice topology, routing, redundancy, timeouts/fallbacks, shared failure domains, and tail amplification. As a result, journey objectives (e.g., "checkout p99 < 400 ms") are often maintained outside code and drift as the system evolves, forcing teams to either miss user expectations or over-provision and gate releases with ad-hoc heuristics. We propose Emergence-as-Code (EmaC), a vision for making journey reliability computable and governable via intent plus evidence. An EmaC spec declares journey intent (objective, control-flow operators, allowed actions) and binds it to atomic SLOs and telemetry. A runtime inference component consumes operational artifacts (e.g., tracing and traffic configuration) to synthesize a candidate journey model with provenance and confidence. From the last accepted model, the EmaC compiler/controller derives bounded journey SLOs and budgets under explicit correlation assumptions (optimistic independence vs. pessimistic shared fate), and emits control-plane artifacts (burn-rate alerts, rollout gates, action guards) that are reviewable in a Git workflow. An anonymized artifact repository provides a runnable example specification and generated outputs.
- Abstract(参考訳): ユーザエクスペリエンスは、マイクロサービストポロジ、ルーティング、冗長性、タイムアウト/フォールバック、共有障害ドメイン、テール増幅の創発的な特性である旅行によって定義される。
その結果、ジャーニー目標(例:"チェックアウトp99 < 400 ms"など)は、システムが進化するにつれて、コードの外で維持され、ドリフトされる。
本稿では,エネルジェンス・アズ・コード(Emergence-as-Code,EmaC)を提案する。
EmaC仕様は、トラベルインテント(オブジェクト、制御フロー演算子、アクションの許容)を宣言し、それをアトミックなSLOとテレメトリにバインドする。
実行時推論コンポーネントは、運用成果物(トレースやトラフィック設定など)を消費し、証明と信頼性を備えた候補走行モデルを合成する。
前回受理されたモデルから、EmaCコンパイラ/コントローラは、明確な相関仮定(最適化独立対悲観的共有運命)の下で、境界付きのSLOと予算を導出し、Gitワークフローでレビュー可能なコントロールプレーンアーティファクト(バーンレートアラート、ロールアウトゲート、アクションガード)を出力する。
匿名化されたアーティファクトリポジトリは、実行可能なサンプル仕様と生成された出力を提供する。
関連論文リスト
- Should I Have Expressed a Different Intent? Counterfactual Generation for LLM-Based Autonomous Control [31.47957931665684]
大規模言語モデル(LLM)を利用したエージェントは、高レベルのユーザ意図を環境内の計画や行動に変換することができる。
本稿では,エージェント制御シナリオにおいて,そのような反実的推論を可能にするフレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-27T22:18:57Z) - If You Want Coherence, Orchestrate a Team of Rivals: Multi-Agent Models of Organizational Intelligence [1.1637186977447433]
完全コンポーネントを得ることなく、不完全なコンポーネントを慎重にオーケストレーションすることで信頼性を実現することができることを示す。
本稿では,このようなシステムのアーキテクチャについて述べる。特殊エージェントチーム(プランナ,実行者,評論家,専門家)。
提案手法は,ユーザの露出前に90%以上の内部エラーインターセプションを達成し,許容可能なレイテンシトレードオフを維持していることを示す。
論文 参考訳(メタデータ) (2026-01-20T17:19:09Z) - Why Does the LLM Stop Computing: An Empirical Study of User-Reported Failures in Open-Source LLMs [50.075587392477935]
オープンソースのDeepSeek、Llama、Qwenのエコシステムから、705の現実世界の失敗に関する大規模な実証的研究を行った。
ホワイトボックスオーケストレーションは、モデルアルゴリズムの欠陥からデプロイメントスタックのシステム的脆弱性へと、信頼性のボトルネックを移動させます。
論文 参考訳(メタデータ) (2026-01-20T06:42:56Z) - Reflection-Driven Control for Trustworthy Code Agents [6.312627213469401]
本稿では,汎用エージェントアーキテクチャにシームレスに統合可能なプラグイン可能な制御モジュールであるReflection-Driven Controlを紹介する。
反射駆動制御は、ポストホックパッチからエージェント自身の推論プロセスにおける明示的なステップに"自己回帰"を上昇させる。
我々は、リフレクション駆動制御が生成されたコードのセキュリティとポリシーのコンプライアンスを大幅に改善することを示します。
論文 参考訳(メタデータ) (2025-12-22T00:27:38Z) - AlignSAE: Concept-Aligned Sparse Autoencoders [47.18866175760984]
本稿では,SAE の機能と定義オントロジーを"pre-train, then-train" カリキュラムで整合させる手法である AlignSAE を紹介する。
初期教師なしトレーニングフェーズの後、特定の概念を専用潜在スロットにバインドするために教師付きポストトレーニングを適用する。
この分離により、非関係な特徴から干渉することなく、特定の関係を検査・制御できる解釈可能なインターフェースが生成される。
論文 参考訳(メタデータ) (2025-12-01T18:58:22Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - Beyond 'Aha!': Toward Systematic Meta-Abilities Alignment in Large Reasoning Models [86.88657425848547]
大型推論モデル(LRMs)はすでに長い連鎖推論のための潜在能力を持っている。
我々は、自動生成の自己検証タスクを使用して、モデルに推論、帰納、誘拐の3つのメタ能力を持たせることを明確にした。
我々の3つのステージ・パイプラインの個別アライメント、パラメータ空間のマージ、ドメイン固有の強化学習は、命令調整ベースラインと比較して10%以上のパフォーマンス向上を実現します。
論文 参考訳(メタデータ) (2025-05-15T17:58:33Z) - Are You Getting What You Pay For? Auditing Model Substitution in LLM APIs [71.7892165868749]
LLM(Commercial Large Language Model) APIは基本的な信頼の問題を生み出します。
ユーザーは特定のモデルに課金するが、プロバイダが忠実に提供できることを保証することはない。
我々は,このモデル置換問題を定式化し,現実的な逆条件下での検出方法を評価する。
我々は,信頼された実行環境(TEE)を実用的で堅牢なソリューションとして使用し,評価する。
論文 参考訳(メタデータ) (2025-04-07T03:57:41Z) - Control-Aware Prediction Objectives for Autonomous Driving [78.19515972466063]
本研究では,制御に対する予測の下流効果を評価するための制御認識予測目標(CAPOs)を提案する。
本稿では,エージェント間の注意モデルを用いた重み付けと,予測軌跡を接地真実軌跡に交換する際の制御変動に基づく重み付けの2つの方法を提案する。
論文 参考訳(メタデータ) (2022-04-28T07:37:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。