論文の概要: Grounding Methods for Neural-Symbolic AI
- arxiv url: http://arxiv.org/abs/2507.08216v1
- Date: Thu, 10 Jul 2025 23:29:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.202868
- Title: Grounding Methods for Neural-Symbolic AI
- Title(参考訳): ニューラルシンボリックAIのための接地法
- Authors: Rodrigo Castellano Ontiveros, Francesco Giannini, Marco Gori, Giuseppe Marra, Michelangelo Diligenti,
- Abstract要約: ニューラル・シンボリック(NeSy)メソッドのクラスは、入力エンティティを処理するためにマシンを使用する。
本稿では,古典的なバックワード・チェインを一般化する基盤手法のパラメタライズされたファミリを提案する。
- 参考スコア(独自算出の注目度): 15.188288807402127
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: A large class of Neural-Symbolic (NeSy) methods employs a machine learner to process the input entities, while relying on a reasoner based on First-Order Logic to represent and process more complex relationships among the entities. A fundamental role for these methods is played by the process of logic grounding, which determines the relevant substitutions for the logic rules using a (sub)set of entities. Some NeSy methods use an exhaustive derivation of all possible substitutions, preserving the full expressive power of the logic knowledge. This leads to a combinatorial explosion in the number of ground formulas to consider and, therefore, strongly limits their scalability. Other methods rely on heuristic-based selective derivations, which are generally more computationally efficient, but lack a justification and provide no guarantees of preserving the information provided to and returned by the reasoner. Taking inspiration from multi-hop symbolic reasoning, this paper proposes a parametrized family of grounding methods generalizing classic Backward Chaining. Different selections within this family allow us to obtain commonly employed grounding methods as special cases, and to control the trade-off between expressiveness and scalability of the reasoner. The experimental results show that the selection of the grounding criterion is often as important as the NeSy method itself.
- Abstract(参考訳): ニューラル・シンボリック法(NeSy)の大規模なクラスでは、機械学習者が入力エンティティを処理し、一階述語論理に基づく推論器を使ってエンティティ間のより複雑な関係を表現・処理する。
これらの手法の基本的な役割は、エンティティの(サブ)セットを使用して論理規則の関連する置換を決定する論理基底のプロセスによって演じられる。
いくつかのNeSy法は、全ての可能な置換の完全な導出を使い、論理知識の完全な表現力を保持する。
このことは、考慮すべき基底公式の数で組合せ的爆発を引き起こし、従って、そのスケーラビリティを強く制限する。
他の方法はヒューリスティックに基づく選択的導出に依存しており、一般にはより計算効率が良いが、正当化が欠如しており、理性者に提供され、返却される情報を保存する保証がない。
本稿では,マルチホップのシンボリック推論からインスピレーションを得て,古典的なバックワード・チェインを一般化する基盤手法のパラメタライズされたファミリーを提案する。
このファミリー内での異なる選択により、特殊ケースとして一般的に使用される接地手法が得られ、その表現性と拡張性の間のトレードオフを制御できる。
実験結果から, 接地基準の選択はNeSy法と同等に重要であることが明らかとなった。
関連論文リスト
- Fractional Reasoning via Latent Steering Vectors Improves Inference Time Compute [57.16286134405821]
本稿では,推論時の推論強度を連続的に制御するフレームワークであるフラクショナル推論を提案する。
提案手法は, より深い推論を伴う潜在ステアリングベクトルを抽出し, 調整可能なスケーリング係数で再適用することによって機能する。
GSM8K、MATH500、GPQAの実験により、フラクショナル推論は様々な推論タスクやモデルのパフォーマンスを一貫して改善することを示した。
論文 参考訳(メタデータ) (2025-06-18T21:15:59Z) - Inferentialist Resource Semantics [48.65926948745294]
本稿では,リソースセマンティクスにおいて,推論が汎用的で表現力豊かなフレームワークを実現する方法を示す。
推論主義は、バンドルインプリケーションの論理のアサーションベースのアプローチをいかにシームレスに組み込むか。
この統合により、直感的で親しみやすい方法で、共有リソースと分離リソースの推論が可能になる。
論文 参考訳(メタデータ) (2024-02-14T14:54:36Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - PROTOtypical Logic Tensor Networks (PROTO-LTN) for Zero Shot Learning [2.236663830879273]
論理ネットワーク(英: Logic Networks, LTN)は、ディープニューラルネットワークに根ざした微分可能な一階述語論理に基づくニューロシンボリックシステムである。
ここでは、ほとんどの意味的画像解釈タスクをエンコードする基本となるsubsumptionまたはtextttisOfClass述語に焦点を当てる。
本稿では,オブジェクト埋め込みと対応するクラスプロトタイプ間の距離の関数を真理レベルとする,共通のtextttisOfClass述語を提案する。
論文 参考訳(メタデータ) (2022-06-26T18:34:07Z) - Reinforcement Learning with External Knowledge by using Logical Neural
Networks [67.46162586940905]
論理ニューラルネットワーク(LNN)と呼ばれる最近のニューラルシンボリックフレームワークは、ニューラルネットワークとシンボリックロジックの両方のキープロパティを同時に提供することができる。
外部知識ソースからのモデルフリー強化学習を可能にする統合手法を提案する。
論文 参考訳(メタデータ) (2021-03-03T12:34:59Z) - Deep Magnification-Flexible Upsampling over 3D Point Clouds [103.09504572409449]
本稿では,高密度点雲を生成するためのエンドツーエンド学習ベースのフレームワークを提案する。
まずこの問題を明示的に定式化し、重みと高次近似誤差を判定する。
そこで我々は,高次改良とともに,統一重みとソート重みを適応的に学習する軽量ニューラルネットワークを設計する。
論文 参考訳(メタデータ) (2020-11-25T14:00:18Z) - Binary Stochastic Filtering: feature selection and beyond [0.0]
この研究は、スパシティ正規化の使用方法を再考することによって、機能を自動的に選択する機能を備えたニューラルネットワークの拡張を目指している。
提案手法は,計算オーバーヘッドを最小あるいはゼロに抑えた古典的手法と比較して,優れた効率性を示した。
論文 参考訳(メタデータ) (2020-07-08T06:57:10Z) - Analyzing Differentiable Fuzzy Implications [3.4806267677524896]
本研究では,ファジィ論理文からの含意が,異なる場面でどのように振る舞うかを考察する。
様々なファジィな含意が、最もよく知られているものも含めて、異なる学習環境での使用に非常に適していないことが判明した。
我々は,この現象に対処するために,新しいファジィ含意(sigmoidal含意(sigmoidal含意))を導入した。
論文 参考訳(メタデータ) (2020-06-04T15:34:37Z) - Continual Learning using a Bayesian Nonparametric Dictionary of Weight
Factors [75.58555462743585]
訓練されたニューラルネットワークは、シーケンシャルなタスク設定で破滅的な忘れを経験する傾向がある。
Indian Buffet Process (IBP) に基づく原則的非パラメトリック手法を提案する。
連続学習ベンチマークにおける本手法の有効性を実証し、トレーニングを通して重み要因の配分と再利用方法を分析する。
論文 参考訳(メタデータ) (2020-04-21T15:20:19Z) - Analyzing Differentiable Fuzzy Logic Operators [3.4806267677524896]
ファジィ論理文からの論理演算子の大規模な集合が、微分可能な学習環境でどのように振る舞うかを考察する。
半教師付き学習において微分可能なファジィ論理を用いることが可能であることを示し、実際に異なる演算子がどのように振る舞うかを比較する。
論文 参考訳(メタデータ) (2020-02-14T16:11:36Z) - Relational Neural Machines [19.569025323453257]
本稿では,学習者のパラメータと一階論理に基づく推論を共同で学習するフレームワークを提案する。
ニューラルネットワークは、純粋な準記号学習の場合の古典的な学習結果とマルコフ論理ネットワークの両方を復元することができる。
適切なアルゴリズム解は、大規模な問題において学習と推論が引き出すことができるように考案されている。
論文 参考訳(メタデータ) (2020-02-06T10:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。