論文の概要: Safe Neurosymbolic Learning with Differentiable Symbolic Execution
- arxiv url: http://arxiv.org/abs/2203.07671v1
- Date: Tue, 15 Mar 2022 06:13:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 16:21:08.958200
- Title: Safe Neurosymbolic Learning with Differentiable Symbolic Execution
- Title(参考訳): シンボル実行の異なる安全なニューロシンボリック学習
- Authors: Chenxi Yang, Swarat Chaudhuri
- Abstract要約: ニューラルネットワークを用いたプログラムの最悪のケースセーフパラメータを学習する問題と、象徴的で人文的なコードについて検討する。
我々のアプローチは,プログラム内の制御フロー経路をサンプル化し,これらの経路に沿って最悪の「安全損失」を象徴的に構成し,プログラム操作を通じてこれらの損失の勾配を逆伝播させる,微分可能実行法(DSE)である。
実験の結果,DSEはこれらのタスクにおいて最先端のDiffAI法よりも優れていた。
- 参考スコア(独自算出の注目度): 11.117357750374035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning worst-case-safe parameters for programs that
use neural networks as well as symbolic, human-written code. Such neurosymbolic
programs arise in many safety-critical domains. However, because they can use
nondifferentiable operations, it is hard to learn their parameters using
existing gradient-based approaches to safe learning. Our approach to this
problem, Differentiable Symbolic Execution (DSE), samples control flow paths in
a program, symbolically constructs worst-case "safety losses" along these
paths, and backpropagates the gradients of these losses through program
operations using a generalization of the REINFORCE estimator. We evaluate the
method on a mix of synthetic tasks and real-world benchmarks. Our experiments
show that DSE significantly outperforms the state-of-the-art DiffAI method on
these tasks.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いたプログラムの最悪のケースセーフパラメータの学習問題と,記号的,人文的なコードについて検討する。
このようなニューロシンボリックプログラムは多くの安全クリティカルな領域で発生する。
しかし、微分不能な操作を使うことができるため、既存の勾配に基づくアプローチでパラメータを学習することは困難である。
この問題に対する我々のアプローチであるDSEは、プログラム内の制御フロー経路をサンプリングし、これらの経路に沿って最悪の「安全損失」を象徴的に構成し、REINFORCE推定器の一般化を用いてプログラム操作を通してこれらの損失の勾配を逆伝搬する。
本手法は合成タスクと実世界のベンチマークを組み合わせて評価する。
実験の結果,DSEはこれらのタスクにおいて最先端のDiffAI法よりも優れていた。
関連論文リスト
- Differentiable Logic Programming for Distant Supervision [4.820391833117535]
我々はニューラル・シンボリックAI(NeSy)におけるニューラルネットワークと論理プログラミングを統合する新しい手法を提案する。
従来の手法とは違って,提案手法はラベルの欠落を推論するシンボリック・ソルバに依存しない。
この方法は、遠隔の監督下でより効率的な学習を容易にする。
論文 参考訳(メタデータ) (2024-08-22T17:55:52Z) - Complexity-Aware Deep Symbolic Regression with Robust Risk-Seeking Policy Gradients [20.941908494137806]
本稿では,データ駆動型数式発見の堅牢性と解釈可能性を高めるための,新しい記号回帰手法を提案する。
DSRは最先端の手法であるDSRの成功にもかかわらず、リカレントニューラルネットワーク上に構築されており、純粋にデータ適合性によってガイドされている。
学習性能を向上させるために,トランスフォーマーとブロードスファーストサーチを併用した。
論文 参考訳(メタデータ) (2024-06-10T19:29:10Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Noisy Learning for Neural ODEs Acts as a Robustness Locus Widening [0.802904964931021]
差分方程式に基づくネットワーク(DE)の合成分布シフトに対するロバスト性評価の課題と課題について検討する。
そこで本研究では,本質的なロバスト性の評価や,データセットの破損シミュレーションの検証に使用可能な,新規で簡易な精度測定法を提案する。
論文 参考訳(メタデータ) (2022-06-16T15:10:38Z) - A Decidability-Based Loss Function [2.5919311269669003]
生体認証問題は、ディープラーニングモデルを使用して画像から特徴を抽出する。
本研究では,検証ルーチンの埋め込み品質を向上させるために,決定可能性指数に基づく損失関数を提案する。
提案手法は,4つのベンチマークにおいて,ソフトマックス(クロスエントロピー),トリプレットソフトハード,マルチ類似性損失に対して比較される。
論文 参考訳(メタデータ) (2021-09-12T14:26:27Z) - On the intrinsic robustness to noise of some leading classifiers and
symmetric loss function -- an empirical evaluation [0.0]
不正検出などの産業応用では、一般的な監視技術の性能は、利用可能なラベルの質の悪さに影響される可能性がある。
人工的なデータセット上で,様々なパラダイムから抽出したアルゴリズムの自然な堅牢性を評価するためのベンチマークを提案する。
論文 参考訳(メタデータ) (2020-10-22T16:00:39Z) - Evaluating the Safety of Deep Reinforcement Learning Models using
Semi-Formal Verification [81.32981236437395]
本稿では,区間分析に基づく半形式的意思決定手法を提案する。
本手法は, 標準ベンチマークに比較して, 形式検証に対して比較結果を得る。
提案手法は, 意思決定モデルにおける安全性特性を効果的に評価することを可能にする。
論文 参考訳(メタデータ) (2020-10-19T11:18:06Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。