論文の概要: Dual Embodied-Symbolic Concept Representations for Deep Learning
- arxiv url: http://arxiv.org/abs/2203.00600v1
- Date: Tue, 1 Mar 2022 16:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-02 13:52:12.853573
- Title: Dual Embodied-Symbolic Concept Representations for Deep Learning
- Title(参考訳): 深層学習のためのデュアル・エンボディード・シンボリック概念表現
- Authors: Daniel T. Chang
- Abstract要約: 概念表現における二重レベルモデルの使用を提唱する。
具現化レベルは概念指向の特徴表現から成り、記号レベルは概念グラフから成り立っている。
本稿では, 数発のクラスインクリメンタルラーニングのためのエンボディド・シンボリック・ナレッジ・蒸留法と, 画像テキストマッチングのためのエンボディド・シンボリック・フューズド表現の2つの重要なユースケースについて論じる。
- 参考スコア(独自算出の注目度): 0.8722210937404288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Motivated by recent findings from cognitive neural science, we advocate the
use of a dual-level model for concept representations: the embodied level
consists of concept-oriented feature representations, and the symbolic level
consists of concept graphs. Embodied concept representations are modality
specific and exist in the form of feature vectors in a feature space. Symbolic
concept representations, on the other hand, are amodal and language specific,
and exist in the form of word / knowledge-graph embeddings in a concept /
knowledge space. The human conceptual system comprises both embodied
representations and symbolic representations, which typically interact to drive
conceptual processing. As such, we further advocate the use of dual
embodied-symbolic concept representations for deep learning. To demonstrate
their usage and value, we discuss two important use cases: embodied-symbolic
knowledge distillation for few-shot class incremental learning, and
embodied-symbolic fused representation for image-text matching. Dual
embodied-symbolic concept representations are the foundation for deep learning
and symbolic AI integration. We discuss two important examples of such
integration: scene graph generation with knowledge graph bridging, and
multimodal knowledge graphs.
- Abstract(参考訳): 認知神経科学の最近の知見に触発されて、概念表現に二重レベルモデルを用いることを提唱する。
エンボディードの概念表現はモジュラリティ特異であり、特徴空間における特徴ベクトルの形で存在する。
一方、象徴的概念表現は、アモーダルかつ言語固有のものであり、概念/知識空間に単語/知識グラフ埋め込みという形で存在する。
人間の概念体系は具体化された表現と象徴的な表現の両方を含み、通常は概念的処理を駆動するために相互作用する。
そこで我々はさらに,深層学習における2つの具体的シンボリック概念表現の利用を提唱する。
それらの使用法と価値を示すために,数発クラスインクリメンタルラーニングのための具体的-記号的知識蒸留と,画像テキストマッチングのための具体的-記号的融合表現の2つの重要なユースケースについて論じる。
Dual embodied-symbolic concept representationsはディープラーニングとシンボリックAI統合の基礎である。
このような統合の2つの重要な例について論じる: ナレッジグラフによるシーングラフ生成とマルチモーダルナレッジグラフである。
関連論文リスト
- Knowledge graphs for empirical concept retrieval [1.06378109904813]
概念に基づく説明可能なAIは、あるユーザの前提における複雑なモデルの理解を改善するツールとして期待されている。
本稿では,テキスト領域と画像領域の両方でユーザ主導のデータ収集を行うワークフローを提案する。
我々は,概念アクティベーションベクトル(CAV)と概念アクティベーション領域(CAR)の2つの概念ベース説明可能性手法を用いて,検索した概念データセットをテストする。
論文 参考訳(メタデータ) (2024-04-10T13:47:22Z) - ConceptBed: Evaluating Concept Learning Abilities of Text-to-Image
Diffusion Models [79.10890337599166]
本研究では,284のユニークな視覚概念と33Kの合成テキストプロンプトからなる大規模データセットであるConceptBedを紹介する。
我々は、対象、属性、スタイルのいずれかである視覚概念を評価し、また、構成性の4つの次元(計数、属性、関係、行動)を評価する。
私たちの結果は、概念を学ぶことと、既存のアプローチが克服に苦労する構成性を維持することのトレードオフを示しています。
論文 参考訳(メタデータ) (2023-06-07T18:00:38Z) - ConceptX: A Framework for Latent Concept Analysis [21.760620298330235]
本稿では,言語モデル(pLM)における潜在表現空間の解釈と注釈付けを行うための,ループ型ヒューマン・イン・ザ・ループ・フレームワークであるConceptXを提案する。
我々は、教師なしの手法を用いて、これらのモデルで学んだ概念を発見し、人間が概念の説明を生成するためのグラフィカルインターフェースを実現する。
論文 参考訳(メタデータ) (2022-11-12T11:31:09Z) - Visual Concepts Tokenization [65.61987357146997]
本稿では,教師なしトランスフォーマーに基づく視覚概念トークン化フレームワーク VCT を提案する。
これらの概念トークンを得るためには、概念トークン間の自己注意なしで画像トークン層から視覚情報を抽出するために、クロスアテンションのみを用いる。
さらに,異なる概念トークンが独立した視覚概念を表現することを容易にするために,概念分離損失を提案する。
論文 参考訳(メタデータ) (2022-05-20T11:25:31Z) - FALCON: Fast Visual Concept Learning by Integrating Images, Linguistic
descriptions, and Conceptual Relations [99.54048050189971]
自然に発生する複数のデータストリームによってガイドされる新しい視覚概念を素早く学習するフレームワークを提案する。
学習された概念は、未知の画像について推論することで質問に答えるなど、下流のアプリケーションをサポートする。
合成と実世界の両方のデータセットにおけるモデルの有効性を実証する。
論文 参考訳(メタデータ) (2022-03-30T19:45:00Z) - Human-Centered Concept Explanations for Neural Networks [47.71169918421306]
概念活性化ベクトル(Concept Activation Vectors, CAV)のクラスを含む概念的説明を紹介する。
次に、自動的に概念を抽出するアプローチと、それらの注意事項に対処するアプローチについて議論する。
最後に、このような概念に基づく説明が、合成設定や実世界の応用において有用であることを示すケーススタディについて論じる。
論文 参考訳(メタデータ) (2022-02-25T01:27:31Z) - Interactive Disentanglement: Learning Concepts by Interacting with their
Prototype Representations [15.284688801788912]
本稿では,ニューラル概念学習者の潜伏空間の理解と改訂のためのプロトタイプ表現の利点を示す。
この目的のために,対話型概念スワッピングネットワーク(iCSN)を導入する。
iCSNは、ペア画像の潜在表現を交換することで、概念情報を特定のプロトタイプスロットにバインドすることを学ぶ。
論文 参考訳(メタデータ) (2021-12-04T09:25:40Z) - pix2rule: End-to-end Neuro-symbolic Rule Learning [84.76439511271711]
本稿では,画像のオブジェクトへの処理,学習関係,論理規則に関する完全なニューロシンボリックな手法を提案する。
主な貢献は、シンボリックリレーションとルールを抽出できるディープラーニングアーキテクチャにおける差別化可能なレイヤである。
我々のモデルは最先端のシンボリックラーナーを超えてスケールし、ディープリレーショナルニューラルネットワークアーキテクチャよりも優れていることを実証する。
論文 参考訳(メタデータ) (2021-06-14T15:19:06Z) - Interpretable Visual Reasoning via Induced Symbolic Space [75.95241948390472]
視覚的推論における概念誘導の問題,すなわち,画像に関連付けられた質問応答対から概念とその階層的関係を同定する。
我々はまず,オブジェクトレベルの視覚的特徴を持つ視覚的推論タスクを実行するために,オブジェクト指向合成注意モデル(OCCAM)という新しいフレームワークを設計する。
そこで我々は,対象の視覚的特徴と質問語の間の注意パターンから手がかりを用いて,対象と関係の概念を誘導する手法を考案した。
論文 参考訳(メタデータ) (2020-11-23T18:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。