論文の概要: Chronosymbolic Learning: Efficient CHC Solving with Symbolic Reasoning and Inductive Learning
- arxiv url: http://arxiv.org/abs/2305.01206v4
- Date: Tue, 4 Jun 2024 15:11:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 14:36:23.606695
- Title: Chronosymbolic Learning: Efficient CHC Solving with Symbolic Reasoning and Inductive Learning
- Title(参考訳): シンボリック・シンボリック・ラーニング:シンボリック・推論と帰納学習を併用した効率的なCHC解法
- Authors: Ziyan Luo, Xujie Si,
- Abstract要約: Solving Constrained Horn Clauses (CHCs) は、幅広い検証と分析タスクの背後にある根本的な課題である。
データ駆動アプローチは、さまざまなものの作成とチューニングを手作業で行わずに、CHC解決を改善する上で大きな可能性を秘めている。
シンボリック情報と数値データポイントを統一し、CHCシステムを効率的に解くための、シンプルで効果的なフレームワーク「Chronosymbolic Learning」を開発した。
- 参考スコア(独自算出の注目度): 9.603732398677112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving Constrained Horn Clauses (CHCs) is a fundamental challenge behind a wide range of verification and analysis tasks. Data-driven approaches show great promise in improving CHC solving without the painstaking manual effort of creating and tuning various heuristics. However, a large performance gap exists between data-driven CHC solvers and symbolic reasoning-based solvers. In this work, we develop a simple but effective framework, "Chronosymbolic Learning", which unifies symbolic information and numerical data points to solve a CHC system efficiently. We also present a simple instance of Chronosymbolic Learning with a data-driven learner and a BMC-styled reasoner. Despite its relative simplicity, experimental results show the efficacy and robustness of our tool. It outperforms state-of-the-art CHC solvers on a dataset consisting of 288 benchmarks, including many instances with non-linear integer arithmetics.
- Abstract(参考訳): Solving Constrained Horn Clauses (CHCs) は、幅広い検証と分析タスクの背後にある根本的な課題である。
データ駆動型アプローチは、さまざまなヒューリスティックを作成、チューニングする手作業で苦労することなく、CHC解決を改善する上で非常に有望である。
しかし、データ駆動型CHCソルバとシンボリック推論ベースのソルバの間には大きなパフォーマンスギャップが存在する。
本研究では,記号情報と数値データポイントを統一し,CHCシステムを効率的に解くための,シンプルで効果的なフレームワークであるChronosymbolic Learningを開発する。
また、データ駆動学習とBMCスタイルの推論を併用したクロノシンボリック学習の簡単な例を示す。
比較的単純であるにもかかわらず、実験結果は、ツールの有効性と堅牢性を示している。
これは288のベンチマークからなるデータセット上で、非線型整数演算を持つ多くのインスタンスを含む最先端のCHCソルバより優れている。
関連論文リスト
- Leveraging Topological Guidance for Improved Knowledge Distillation [0.0]
画像分類タスクのためのトポロジカルガイダンスベース知識蒸留(TGD)というフレームワークを提案する。
我々はKDを利用して優れた軽量モデルを訓練し、同時に複数の教師にトポロジ的特徴を提供する。
本稿では,教師と生徒の知識ギャップを減らし,異なる教師の機能を統合するメカニズムを提案する。
論文 参考訳(メタデータ) (2024-07-07T10:09:18Z) - Automated Contrastive Learning Strategy Search for Time Series [48.68664732145665]
コントラスト学習(CL)は,時系列の表現学習パラダイムとして主流となっている。
我々はMicrosoftでAutomated Machine Learning(AutoML)の実践を紹介し、様々な時系列データセットの学習表現をコントラストに自動的に学習する。
論文 参考訳(メタデータ) (2024-03-19T11:24:14Z) - Compute-Efficient Active Learning [0.0]
アクティブラーニングは、ラベルなしデータセットから最も有益なサンプルを選択することでラベリングコストを削減することを目的としている。
従来のアクティブな学習プロセスは、拡張性と効率を阻害する広範な計算資源を必要とすることが多い。
本稿では,大規模データセット上での能動的学習に伴う計算負担を軽減するための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T12:32:07Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Localized Contrastive Learning on Graphs [110.54606263711385]
局所グラフコントラスト学習(Local-GCL)という,シンプルだが効果的なコントラストモデルを導入する。
その単純さにもかかわらず、Local-GCLは、様々なスケールと特性を持つグラフ上の自己教師付きノード表現学習タスクにおいて、非常に競争力のある性能を達成する。
論文 参考訳(メタデータ) (2022-12-08T23:36:00Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z) - CCLF: A Contrastive-Curiosity-Driven Learning Framework for
Sample-Efficient Reinforcement Learning [56.20123080771364]
我々は、強化学習のためのモデルに依存しないコントラスト駆動学習フレームワーク(CCLF)を開発した。
CCLFは、サンプルの重要性を完全に活用し、自己管理的な学習効率を向上させる。
このアプローチをDeepMind Control Suite、Atari、MiniGridベンチマークで評価する。
論文 参考訳(メタデータ) (2022-05-02T14:42:05Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - Unsupervised Learning for Robust Fitting:A Reinforcement Learning
Approach [25.851792661168698]
堅牢なモデルフィッティングを解決するための新しいフレームワークを紹介します。
他の方法とは異なり、私たちの仕事は基本的な入力機能に無知です。
実験により,本手法が既存の学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-03-05T07:14:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。