論文の概要: Proof-Carrying Neuro-Symbolic Code
- arxiv url: http://arxiv.org/abs/2504.12031v1
- Date: Wed, 16 Apr 2025 12:42:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-17 14:38:31.850682
- Title: Proof-Carrying Neuro-Symbolic Code
- Title(参考訳): Proof-Carrying Neuro-Symbolic Code
- Authors: Ekaterina Komendantskaya,
- Abstract要約: 本稿では,「保護型ニューロシンボリックコード」の概念を紹介する。
その意味と価値は、「神経」と「象徴的」の両方の観点から説明される。
- 参考スコア(独自算出の注目度): 1.6317061277457001
- License:
- Abstract: This invited paper introduces the concept of "proof-carrying neuro-symbolic code" and explains its meaning and value, from both the "neural" and the "symbolic" perspectives. The talk outlines the first successes and challenges that this new area of research faces.
- Abstract(参考訳): 本稿は,「保護型ニューロシンボリックコード」の概念を紹介し,その意味と価値を「神経」と「象徴的」の両方の観点から説明する。
講演では、この新しい研究領域が直面する最初の成功と課題について概説している。
関連論文リスト
- Compositional Generalization Across Distributional Shifts with Sparse Tree Operations [77.5742801509364]
我々は、微分可能木機械と呼ばれる統合されたニューロシンボリックアーキテクチャを導入する。
シンボル構造の疎ベクトル表現を用いることで,モデルの効率を大幅に向上する。
より一般的なseq2seq問題に制限されたtree2tree問題以外の適用を可能にする。
論文 参考訳(メタデータ) (2024-12-18T17:20:19Z) - ConceptLens: from Pixels to Understanding [1.3466710708566176]
ConceptLensは、隠れたニューロンの活性化を可視化することによって、ディープニューラルネットワーク(DNN)の複雑な動作を照明する革新的なツールである。
ディープラーニングとシンボリックな方法を統合することで、ConceptLensは、ニューロンの活性化を引き起こすものを理解するユニークな方法を提供する。
論文 参考訳(メタデータ) (2024-10-04T20:49:12Z) - IID Relaxation by Logical Expressivity: A Research Agenda for Fitting Logics to Neurosymbolic Requirements [50.57072342894621]
本稿では、ニューロシンボリック・ユースケースにおける既知のデータ依存と分布制約を利用する利点について論じる。
これは、ニューロシンボリックな背景知識と、その論理に必要とされる表現性に関する一般的な疑問を伴う新しい研究課題を開く。
論文 参考訳(メタデータ) (2024-04-30T12:09:53Z) - Simple and Effective Transfer Learning for Neuro-Symbolic Integration [50.592338727912946]
この問題の潜在的な解決策はNeuro-Symbolic Integration (NeSy)であり、ニューラルアプローチとシンボリック推論を組み合わせる。
これらの手法のほとんどは、認識をシンボルにマッピングするニューラルネットワークと、下流タスクの出力を予測する論理的論理的推論を利用する。
それらは、緩やかな収束、複雑な知覚タスクの学習困難、局所的なミニマへの収束など、いくつかの問題に悩まされている。
本稿では,これらの問題を改善するための簡易かつ効果的な方法を提案する。
論文 参考訳(メタデータ) (2024-02-21T15:51:01Z) - Neuro-Symbolic Continual Learning: Knowledge, Reasoning Shortcuts and
Concept Rehearsal [26.999987105646966]
本稿では,ニューロシンボリック連続学習(Neuro-Symbolic Continual Learning)を紹介する。
私たちのキーとなる観察は、ニューロシンボリックなタスクは異なるものの、意味論が時間とともに安定している概念を共有していることです。
ニューロシンボリックアーキテクチャと継続的な戦略を組み合わせることで、先行知識を活用することで、破滅的な忘れを回避できることが示される。
論文 参考訳(メタデータ) (2023-02-02T17:24:43Z) - A Semantic Framework for Neuro-Symbolic Computing [0.36832029288386137]
ニューロシンボリックAIの分野は、ニューラルネットワークとシンボリックシステムの組み合わせの恩恵を受けることを目的としている。
エンコーディングの一般的な定義は存在せず、ニューロシンボリック法を正確に理論的に比較することが可能である。
本稿では,ニューロシンボリックAIのセマンティックフレームワークを導入することでこの問題に対処する。
論文 参考訳(メタデータ) (2022-12-22T22:00:58Z) - Towards Data-and Knowledge-Driven Artificial Intelligence: A Survey on Neuro-Symbolic Computing [73.0977635031713]
ニューラルシンボリック・コンピューティング(NeSy)は、人工知能(AI)の活発な研究領域である。
NeSyは、ニューラルネットワークにおける記号表現の推論と解釈可能性の利点と堅牢な学習の整合性を示す。
論文 参考訳(メタデータ) (2022-10-28T04:38:10Z) - Survey on Applications of Neurosymbolic Artificial Intelligence [37.7665470475176]
本稿では,ニューロシンボリックな応用の分類法を導入し,各領域の最先端を概説する。
我々は、この急成長する分野の将来に関する重要なトレンドを特定し、新たな視点を提供する。
論文 参考訳(メタデータ) (2022-09-08T18:18:41Z) - Neuro-Symbolic Learning: Principles and Applications in Ophthalmology [20.693460748187906]
ニューロシンボリックラーニング(NeSyL)の概念は、記号表現の側面を取り入れ、ニューラルネット(NeSyL)に共通の感覚をもたらす。
NeSyLは、ビデオや画像キャプション、質問回答と推論、健康情報学、ゲノム学など、解釈可能性、推論可能性、説明可能性が重要である領域において、有望な結果を示している。
このレビューでは、最先端のNeSyLアプローチ、その原則、機械学習およびディープラーニングアルゴリズムの進歩、オプタルモロジーのような応用、そして最も重要なのは、この新興分野の今後の展望について包括的に調査する。
論文 参考訳(メタデータ) (2022-07-31T06:48:19Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z) - Neuro-Symbolic Visual Reasoning: Disentangling "Visual" from "Reasoning" [49.76230210108583]
本稿では,視覚的質問応答(VQA)の推論的側面をその知覚から分離し,評価する枠組みを提案する。
また,不完全な知覚においても,モデルが推論問題に答えられるような,新しいトップダウンキャリブレーション手法を提案する。
難易度の高いGQAデータセットでは、このフレームワークがよく知られたVQAモデル間の深い非絡み合いの比較に使用される。
論文 参考訳(メタデータ) (2020-06-20T08:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。