論文の概要: Neuro-Symbolic Concepts
- arxiv url: http://arxiv.org/abs/2505.06191v1
- Date: Fri, 09 May 2025 17:02:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-12 20:40:10.350747
- Title: Neuro-Symbolic Concepts
- Title(参考訳): ニューロシンボリック概念
- Authors: Jiayuan Mao, Joshua B. Tenenbaum, Jiajun Wu,
- Abstract要約: 本稿では、連続的に学習し、柔軟に推論できるエージェントを構築するための概念中心のパラダイムについて述べる。
概念中心のエージェントは、ニューロシンボリックな概念の語彙を利用する。
このフレームワークには、データ効率、構成一般化、連続学習、ゼロショット転送など、いくつかの利点がある。
- 参考スコア(独自算出の注目度): 72.94541757514396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article presents a concept-centric paradigm for building agents that can learn continually and reason flexibly. The concept-centric agent utilizes a vocabulary of neuro-symbolic concepts. These concepts, such as object, relation, and action concepts, are grounded on sensory inputs and actuation outputs. They are also compositional, allowing for the creation of novel concepts through their structural combination. To facilitate learning and reasoning, the concepts are typed and represented using a combination of symbolic programs and neural network representations. Leveraging such neuro-symbolic concepts, the agent can efficiently learn and recombine them to solve various tasks across different domains, ranging from 2D images, videos, 3D scenes, and robotic manipulation tasks. This concept-centric framework offers several advantages, including data efficiency, compositional generalization, continual learning, and zero-shot transfer.
- Abstract(参考訳): 本稿では、連続的に学習し、柔軟に推論できるエージェントを構築するための概念中心のパラダイムについて述べる。
概念中心のエージェントは、ニューロシンボリックな概念の語彙を利用する。
対象、関係、行動の概念といったこれらの概念は、感覚入力とアクティベーション出力に基づいている。
それらもまた構成的であり、構造的な組み合わせを通じて新しい概念を創出することができる。
学習と推論を容易にするため、概念は型付けされ、記号プログラムとニューラルネットワーク表現の組み合わせで表現される。
このようなニューロシンボリックな概念を活用することで、エージェントは効率よく学習して再結合し、2D画像、ビデオ、3Dシーン、ロボット操作タスクなど、さまざまな領域にわたるさまざまなタスクを解決できる。
この概念中心のフレームワークには、データ効率、構成一般化、連続学習、ゼロショット転送など、いくつかの利点がある。
関連論文リスト
- OmniPrism: Learning Disentangled Visual Concept for Image Generation [57.21097864811521]
創造的な視覚概念の生成は、しばしば関連する結果を生み出すために参照イメージ内の特定の概念からインスピレーションを引き出す。
我々は,創造的画像生成のための視覚的概念分離手法であるOmniPrismを提案する。
提案手法は,自然言語で案内される不整合概念表現を学習し,これらの概念を組み込むために拡散モデルを訓練する。
論文 参考訳(メタデータ) (2024-12-16T18:59:52Z) - LLM-assisted Concept Discovery: Automatically Identifying and Explaining Neuron Functions [15.381209058506078]
以前の研究は、概念の例や事前に定義された概念のセットに基づいて、ニューロンに関連づけられた概念を持っている。
本稿では,マルチモーダルな大規模言語モデルを用いて,自動的かつオープンな概念発見を提案する。
我々は,この新たな画像に対して,サンプルと反例を生成し,ニューロンの反応を評価することにより,それぞれの概念を検証する。
論文 参考訳(メタデータ) (2024-06-12T18:19:37Z) - From Neural Activations to Concepts: A Survey on Explaining Concepts in Neural Networks [15.837316393474403]
概念は学習と推論の自然な結びつきとして機能する。
知識はニューラルネットワークから抽出できるだけでなく、概念知識をニューラルネットワークアーキテクチャに挿入することもできる。
論文 参考訳(メタデータ) (2023-10-18T11:08:02Z) - ZeroC: A Neuro-Symbolic Model for Zero-shot Concept Recognition and
Acquisition at Inference Time [49.067846763204564]
人間は、ゼロショットで新しい視覚概念を認識し、獲得する驚くべき能力を持っている。
ゼロショット概念認識・獲得(ZeroC)は,ゼロショット方式で新規概念を認識・取得できる,ニューロシンボリックアーキテクチャである。
論文 参考訳(メタデータ) (2022-06-30T06:24:45Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Interactive Disentanglement: Learning Concepts by Interacting with their
Prototype Representations [15.284688801788912]
本稿では,ニューラル概念学習者の潜伏空間の理解と改訂のためのプロトタイプ表現の利点を示す。
この目的のために,対話型概念スワッピングネットワーク(iCSN)を導入する。
iCSNは、ペア画像の潜在表現を交換することで、概念情報を特定のプロトタイプスロットにバインドすることを学ぶ。
論文 参考訳(メタデータ) (2021-12-04T09:25:40Z) - A Minimalist Dataset for Systematic Generalization of Perception,
Syntax, and Semantics [131.93113552146195]
我々は,機械が一般化可能な概念を学習する能力を調べるため,新しいデータセットであるHINT(Hand written arithmetic with INTegers)を提案する。
HINTでは、イメージなどの生信号から概念がどのように認識されるかを学ぶことが機械のタスクである。
我々は、RNN、Transformer、GPT-3など、様々なシーケンス・ツー・シーケンスモデルで広範囲に実験を行った。
論文 参考訳(メタデータ) (2021-03-02T01:32:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。