論文の概要: Symbolic LTLf Best-Effort Synthesis
- arxiv url: http://arxiv.org/abs/2308.15178v1
- Date: Tue, 29 Aug 2023 10:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 14:50:22.555775
- Title: Symbolic LTLf Best-Effort Synthesis
- Title(参考訳): シンボリックLTLfベストエフォート合成
- Authors: Giuseppe De Giacomo, Gianmarco Parretti, Shufang Zhu
- Abstract要約: 有限トレース上での線形時相論理における最善合成のための記号的アプローチを考案し比較する。
これらのアプローチは、同じ基本的なコンポーネントに基づいていますが、これらのコンポーネントの組み合わせの仕方を変えます。
- 参考スコア(独自算出の注目度): 27.106071554421664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider an agent acting to fulfil tasks in a nondeterministic
environment. When a strategy that fulfills the task regardless of how the
environment acts does not exist, the agent should at least avoid adopting
strategies that prevent from fulfilling its task. Best-effort synthesis
captures this intuition. In this paper, we devise and compare various symbolic
approaches for best-effort synthesis in Linear Temporal Logic on finite traces
(LTLf). These approaches are based on the same basic components, however they
change in how these components are combined, and this has a significant impact
on the performance of the approaches as confirmed by our empirical evaluations.
- Abstract(参考訳): 非決定論的環境におけるタスクを満たすエージェントを考える。
環境がどのように振る舞うかに関わらずタスクを遂行する戦略が存在しない場合、エージェントは少なくともそのタスクの遂行を妨げる戦略の採用を避けるべきである。
最善合成はこの直感を捉えている。
本稿では,有限トレース(LTLf)上での線形時間論理の最適合成のための記号的アプローチを考案し,比較する。
これらのアプローチは、同じ基本的なコンポーネントに基づいていますが、これらのコンポーネントの組み合わせの仕方を変えるため、経験的評価によって確認されたアプローチのパフォーマンスに大きな影響を与えます。
関連論文リスト
- To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning [55.52872152909785]
Chain-of-Thought (CoT) は,大規模言語モデル (LLM) から推論能力を引き出すデファクト手法である。
私たちは、CoTが主に数学や論理学を含むタスクに強いパフォーマンス上の利点をもたらし、他のタスクよりもはるかに少ない利益をもたらすことを示しています。
論文 参考訳(メタデータ) (2024-09-18T17:55:00Z) - Con-ReCall: Detecting Pre-training Data in LLMs via Contrastive Decoding [118.75567341513897]
既存のメソッドは通常、ターゲットテキストを分離して分析するか、非メンバーコンテキストでのみ分析する。
Con-ReCallは、メンバと非メンバのコンテキストによって誘導される非対称な分布シフトを利用する新しいアプローチである。
論文 参考訳(メタデータ) (2024-09-05T09:10:38Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - LTLf Best-Effort Synthesis in Nondeterministic Planning Domains [27.106071554421664]
完全可観測非決定性領域(FOND)におけるベストエフォート戦略(いわゆる計画)について検討する。
非決定論的計画領域の特異性を生かしたベストエフォート戦略を合成するゲーム理論合成手法を提案する。
論文 参考訳(メタデータ) (2023-08-29T10:10:41Z) - logLTN: Differentiable Fuzzy Logic in the Logarithm Space [11.440949097704943]
文学におけるトレンドは、論理記号とニューラルネットワークとファジィ意味論を接地することで、損失関数の公理と事実を統合することである。
本稿では,対数空間の終端を基底とするファジィ演算子の構成について述べる。
以上の結果から,提案した構成が現状よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-06-26T09:39:05Z) - Abstraction of Nondeterministic Situation Calculus Action Theories --
Extended Version [23.24285208243607]
非決定論的領域で動作するエージェントの動作を抽象化するための一般的なフレームワークを開発する。
我々は抽象的かつ具体的な非決定論的基本作用論を持っていると仮定する。
エージェントが目標/完了タスクを抽象レベルで達成するための(強いFOND)計画/戦略を持っている場合、具体レベルでは非決定論的抽象アクションを常に実行可能であることを示す。
論文 参考訳(メタデータ) (2023-05-20T05:42:38Z) - Exploration Policies for On-the-Fly Controller Synthesis: A
Reinforcement Learning Approach [0.0]
強化学習(RL)に基づく非有界学習のための新しい手法を提案する。
我々のエージェントは、非常に観察可能な部分的なRLタスクでスクラッチから学習し、トレーニング中に見つからないケースで、全体のパフォーマンスを上回ります。
論文 参考訳(メタデータ) (2022-10-07T20:28:25Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - The Advantage of Conditional Meta-Learning for Biased Regularization and
Fine-Tuning [50.21341246243422]
バイアスレギュラー化と微調整は、最近の2つのメタラーニングアプローチである。
本稿では,条件付き関数マッピングタスクの側情報をメタパラメータベクトルに推論する条件付きメタラーニングを提案する。
次に、実際には同等の利点をもたらす凸メタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-08-25T07:32:16Z) - Gaze estimation problem tackled through synthetic images [2.609784101826762]
深層学習技術を用いた視線推定の分野で使用される合成フレームワークの評価を行った。
We use U2Eyes synthesis environment using I2Head datataset as real benchmark for comparison。
ユーザの特定のキャリブレーション戦略に適用するための合成事前学習モデルのポテンシャルは、優れた性能で示される。
論文 参考訳(メタデータ) (2020-06-11T18:53:51Z) - Logical Team Q-learning: An approach towards factored policies in
cooperative MARL [49.08389593076099]
我々は,協調的なMARLシナリオにおける要因付き政策の学習の課題に対処する。
目的は、各エージェントの個人行動を決定する因子付きポリシーを取得し、その結果の合同ポリシーが最適になるようにすることである。
主な貢献は、Logical Team Q-learning (LTQL)の導入である。
論文 参考訳(メタデータ) (2020-06-05T17:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。