論文の概要: Neuro-Symbolic Entropy Regularization
- arxiv url: http://arxiv.org/abs/2201.11250v1
- Date: Tue, 25 Jan 2022 06:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 13:21:54.188988
- Title: Neuro-Symbolic Entropy Regularization
- Title(参考訳): ニューロシンボリックエントロピー規則化
- Authors: Kareem Ahmed, Eric Wang, Kai-Wei Chang, Guy Van den Broeck
- Abstract要約: 構造化予測では、目的は構造化されたオブジェクトをエンコードする多くの出力変数を共同で予測することである。
エントロピー正則化(Entropy regularization)という1つのアプローチは、決定境界が低確率領域にあるべきであることを示唆している。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
- 参考スコア(独自算出の注目度): 78.16196949641079
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In structured prediction, the goal is to jointly predict many output
variables that together encode a structured object -- a path in a graph, an
entity-relation triple, or an ordering of objects. Such a large output space
makes learning hard and requires vast amounts of labeled data. Different
approaches leverage alternate sources of supervision. One approach -- entropy
regularization -- posits that decision boundaries should lie in low-probability
regions. It extracts supervision from unlabeled examples, but remains agnostic
to the structure of the output space. Conversely, neuro-symbolic approaches
exploit the knowledge that not every prediction corresponds to a valid
structure in the output space. Yet, they does not further restrict the learned
output distribution. This paper introduces a framework that unifies both
approaches. We propose a loss, neuro-symbolic entropy regularization, that
encourages the model to confidently predict a valid object. It is obtained by
restricting entropy regularization to the distribution over only valid
structures. This loss is efficiently computed when the output constraint is
expressed as a tractable logic circuit. Moreover, it seamlessly integrates with
other neuro-symbolic losses that eliminate invalid predictions. We demonstrate
the efficacy of our approach on a series of semi-supervised and
fully-supervised structured-prediction experiments, where we find that it leads
to models whose predictions are more accurate and more likely to be valid.
- Abstract(参考訳): 構造化予測では、多くの出力変数を共同で予測し、構造化されたオブジェクト -- グラフのパス、エンティティリレーショナルトリプル、オブジェクトの順序付け -- をエンコードする。
このような大きな出力空間は学習を難しくし、大量のラベル付きデータを必要とする。
異なるアプローチが監督の代替となる。
エントロピー正規化(entropy regularization)というアプローチは、意思決定の境界が低確率領域にあるべきだと仮定している。
ラベルのない例から監督を抽出するが、出力空間の構造には依存しない。
逆に、ニューロシンボリックアプローチは、全ての予測が出力空間の有効な構造に対応するわけではないという知識を利用する。
しかし、学習した出力分布をさらに制限するわけではない。
本稿では,両アプローチを統一する枠組みを紹介する。
我々は、モデルが有効対象を確実に予測することを奨励する損失、ニューロシンボリックエントロピー正規化を提案する。
エントロピー正則化を有効構造のみ上の分布に制限することで得られる。
この損失は、出力制約がトラクタブル論理回路として表現されたときに効率よく計算される。
さらに、無効な予測を排除する他のニューロシンボリックな損失とシームレスに統合される。
提案手法の有効性を, 半教師付きおよび完全教師付き構造予測実験で実証し, 予測がより正確で, より有効である可能性が示唆されたモデルに導かれることを示した。
関連論文リスト
- Learning When the Concept Shifts: Confounding, Invariance, and Dimension Reduction [5.38274042816001]
観測データでは、分布シフトは観測されていない共起因子によって駆動されることが多い。
このことは、観測データを用いた領域適応問題の研究を動機付けます。
学習した低次元部分空間を用いて、ターゲットとソースのリスクの間にほぼ理想的なギャップを生じさせるモデルを示す。
論文 参考訳(メタデータ) (2024-06-22T17:43:08Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Semantic Loss Functions for Neuro-Symbolic Structured Prediction [74.18322585177832]
このような構造に関する知識を象徴的に定義した意味的損失をトレーニングに注入する。
記号の配置に非依存であり、それによって表現される意味論にのみ依存する。
識別型ニューラルモデルと生成型ニューラルモデルの両方と組み合わせることができる。
論文 参考訳(メタデータ) (2024-05-12T22:18:25Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Uncovering the Missing Pattern: Unified Framework Towards Trajectory
Imputation and Prediction [60.60223171143206]
軌道予測は、観測されたシーケンスから実体運動や人間の行動を理解する上で重要な作業である。
現在の方法では、観測されたシーケンスが完了したと仮定し、欠落した値の可能性を無視する。
本稿では,グラフに基づく条件変動リカレントニューラルネットワーク (GC-VRNN) の統一フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-28T14:27:27Z) - Unifying supervised learning and VAEs -- coverage, systematics and
goodness-of-fit in normalizing-flow based neural network models for
astro-particle reconstructions [0.0]
統計的不確実性、包括性、体系的不確実性、あるいは適度な尺度はしばしば計算されない。
データとラベルの共分散のKL分割の目的は、教師付き学習と変分オートエンコーダの統合を可能にすることを示す。
本稿では,特定の「基本順序」輪郭の数値積分を伴わずにカバレッジ確率を計算する方法について論じる。
論文 参考訳(メタデータ) (2020-08-13T11:28:57Z) - Learning Output Embeddings in Structured Prediction [73.99064151691597]
構造化予測に対する強力で柔軟なアプローチは、予測される構造化対象を潜在的に無限次元の特徴空間に埋め込むことである。
原空間における予測は、前像問題の解法により計算される。
本研究では,新しい特徴空間に出力埋め込みと回帰関数の有限近似を共同で学習することを提案する。
論文 参考訳(メタデータ) (2020-07-29T09:32:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。