論文の概要: Towards Operation Proof Obligation Generation for VDM
- arxiv url: http://arxiv.org/abs/2506.12858v1
- Date: Sun, 15 Jun 2025 14:18:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:47.006791
- Title: Towards Operation Proof Obligation Generation for VDM
- Title(参考訳): VDMのオペレーティング・オブ・グリーテーション・ジェネレーションに向けて
- Authors: Nick Battle, Peter Gorm Larsen,
- Abstract要約: 義務の生成は、メソッドをサポートするツールの重要な役割である。
この作業では、この問題に対処するための現在の作業状況を説明し、これまでの能力を示し、残りの作業を強調します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: All formalisms have the ability to ensure that their models are internally consistent. Potential inconsistencies are generally highlighted by assertions called proof obligations, and the generation of these obligations is an important role of the tools that support the method. This capability has been available for VDM tools for many years. However, support for obligation generation for explicit operation bodies has always been limited. This work describes the current state of work to address this, showing the capabilities so far and highlighting the work remaining.
- Abstract(参考訳): すべての形式主義は、モデルが内部的に一貫したものであることを保証する能力を持っている。
潜在的な矛盾は一般に証明義務と呼ばれる主張によって強調され、これらの義務の生成はメソッドをサポートするツールの重要な役割である。
この機能は長年VDMツールで利用されてきた。
しかし、明示的な運用機関に対する義務生成のサポートは常に制限されている。
この作業では、この問題に対処するための現在の作業状況を説明し、これまでの能力を示し、残りの作業を強調します。
関連論文リスト
- Agentic AI Process Observability: Discovering Behavioral Variability [2.273531916003657]
大規模言語モデル(LLM)を利用するAIエージェントは、現代のソフトウェアシステムの中核的な構成要素になりつつある。
フレームワークは自然言語のプロンプトを使ってエージェントの設定を定義することができる。
このような設定では、エージェントの振る舞いは任意の入力に対して非決定論的である。
論文 参考訳(メタデータ) (2025-05-26T15:26:07Z) - On the Robustness of Agentic Function Calling [5.0243930429558885]
大規模言語モデル(LLM)は、タスクのための特定のツールを呼び出すことができる機能呼び出し(FC)機能を備えた、自律的なエージェントとしてますます機能している。
本稿では,2つの重要な領域においてFCのロバスト性を評価するベンチマークを紹介する。
論文 参考訳(メタデータ) (2025-04-01T15:48:26Z) - AgentOps: Enabling Observability of LLM Agents [12.49728300301026]
大規模言語モデル(LLM)エージェントは、自律的で非決定論的行動のため、AI安全性に重大な懸念を提起する。
本稿では,エージェントのライフサイクル全体を通じて追跡されるべきアーティファクトと関連するデータを特定し,効果的な観測可能性を実現するための,AgentOpsの包括的な分類法を提案する。
私たちの分類は、監視、ロギング、分析をサポートするAgentOpsインフラストラクチャを設計、実装するためのリファレンステンプレートとして機能します。
論文 参考訳(メタデータ) (2024-11-08T02:31:03Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Reasoning or Reciting? Exploring the Capabilities and Limitations of Language Models Through Counterfactual Tasks [71.19560970717495]
最近の言語モデルは、幅広いタスクで印象的なパフォーマンスを示している。
これらのスキルは一般的で、移行可能か、あるいは事前トレーニング中に見られる特定のタスクに特化していますか?
本稿では,標準タスクの既定前提から逸脱する「数値的」タスク変種に基づく評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-05T17:50:42Z) - Hierarchical Few-Shot Imitation with Skill Transition Models [66.81252581083199]
FIST(Few-shot Imitation with Skill Transition Models)は、オフラインデータからスキルを抽出し、それらを利用して見えないタスクに一般化するアルゴリズムである。
本稿では,FISTが新たなタスクに一般化し,ナビゲーション実験において従来のベースラインを大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-19T15:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。