論文の概要: Prompt2DeModel: Declarative Neuro-Symbolic Modeling with Natural Language
- arxiv url: http://arxiv.org/abs/2407.20513v1
- Date: Tue, 30 Jul 2024 03:10:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 18:28:58.115574
- Title: Prompt2DeModel: Declarative Neuro-Symbolic Modeling with Natural Language
- Title(参考訳): Prompt2DeModel:自然言語を用いた宣言型ニューロシンボリックモデリング
- Authors: Hossein Rajaby Faghihi, Aliakbar Nafar, Andrzej Uszok, Hamid Karimian, Parisa Kordjamshidi,
- Abstract要約: 本稿では,自然言語による複雑なニューロシンボリックモデルのためのドメイン知識構築のためのパイプラインを提案する。
提案するパイプラインは,動的なコンテキスト内実演検索,シンボル可視化からのフィードバックに基づくモデル改良,ユーザインタラクションなどの手法を利用する。
このアプローチによって、ML/AIに精通していないドメイン専門家でさえ、自身の知識をカスタマイズされたニューラルモデルに組み込むように正式に宣言することが可能になる。
- 参考スコア(独自算出の注目度): 18.00674366843745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a conversational pipeline for crafting domain knowledge for complex neuro-symbolic models through natural language prompts. It leverages large language models to generate declarative programs in the DomiKnowS framework. The programs in this framework express concepts and their relationships as a graph in addition to logical constraints between them. The graph, later, can be connected to trainable neural models according to those specifications. Our proposed pipeline utilizes techniques like dynamic in-context demonstration retrieval, model refinement based on feedback from a symbolic parser, visualization, and user interaction to generate the tasks' structure and formal knowledge representation. This approach empowers domain experts, even those not well-versed in ML/AI, to formally declare their knowledge to be incorporated in customized neural models in the DomiKnowS framework.
- Abstract(参考訳): 本稿では,自然言語による複雑なニューロシンボリックモデルのためのドメイン知識構築のための対話パイプラインを提案する。
大規模な言語モデルを活用して、DomiKnowSフレームワークで宣言型プログラムを生成する。
このフレームワークのプログラムは、それらの間の論理的制約に加えて、概念とそれらの関係をグラフとして表現する。
このグラフは後に、これらの仕様に従ってトレーニング可能なニューラルモデルに接続することができる。
提案するパイプラインは,動的なコンテキスト内デモ検索,シンボルパーサからのフィードバックに基づくモデル改良,可視化,ユーザインタラクションといった手法を用いて,タスクの構造と形式的知識表現を生成する。
このアプローチにより、ML/AIに精通していないドメインエキスパートでさえ、DomiKnowSフレームワークにカスタマイズされたニューラルネットワークに組み込むための自身の知識を正式に宣言することが可能になる。
関連論文リスト
- Knowledge Graphs and Pre-trained Language Models enhanced Representation Learning for Conversational Recommender Systems [58.561904356651276]
本稿では,対話型推薦システムのためのエンティティの意味理解を改善するために,知識強化型エンティティ表現学習(KERL)フレームワークを紹介する。
KERLは知識グラフと事前訓練された言語モデルを使用して、エンティティの意味的理解を改善する。
KERLはレコメンデーションとレスポンス生成の両方のタスクで最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-12-18T06:41:23Z) - Discrete, compositional, and symbolic representations through attractor dynamics [51.20712945239422]
我々は,思考の確率的言語(PLoT)に似た認知過程をモデル化するために,アトラクタダイナミクスを記号表現と統合した新しいニューラルシステムモデルを導入する。
我々のモデルは、連続表現空間を、事前定義されたプリミティブに頼るのではなく、教師なし学習を通じて、記号系の意味性と構成性の特徴を反映する、記号列に対応する引き付け状態を持つ離散盆地に分割する。
このアプローチは、認知操作の複雑な双対性を反映したより包括的なモデルを提供する、AIにおける表現力の証明された神経弁別可能な基質であるニューラルダイナミクスを通じて、シンボル処理とサブシンボル処理の両方を統合する統一的なフレームワークを確立する。
論文 参考訳(メタデータ) (2023-10-03T05:40:56Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Topics as Entity Clusters: Entity-based Topics from Large Language Models and Graph Neural Networks [0.6486052012623045]
本稿では,エンティティのバイモーダルベクトル表現を用いたトピッククラスタリング手法を提案する。
我々のアプローチは、最先端のモデルと比較してエンティティを扱うのに適している。
論文 参考訳(メタデータ) (2023-01-06T10:54:54Z) - KGLM: Integrating Knowledge Graph Structure in Language Models for Link
Prediction [0.0]
我々は、異なるエンティティと関係型を区別することを学ぶ新しいエンティティ/リレーション埋め込み層を導入する。
知識グラフから抽出したトリプルを用いて、この追加埋め込み層を用いて言語モデルをさらに事前学習し、続いて標準微調整フェーズにより、ベンチマークデータセット上のリンク予測タスクに対して、新しい最先端のパフォーマンスが設定されることを示す。
論文 参考訳(メタデータ) (2022-11-04T20:38:12Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - Neural-Symbolic Integration for Interactive Learning and Conceptual
Grounding [1.14219428942199]
本稿では,抽象概念の説明と対話型学習のためのニューラルシンボリック統合を提案する。
ユーザとのインタラクションは、ニューラルモデルのリビジョンを確認または拒否する。
このアプローチはLogic NetworkフレームワークとConcept Activation Vectorsを使って説明され、Conal Neural Networkに適用される。
論文 参考訳(メタデータ) (2021-12-22T11:24:48Z) - KELM: Knowledge Enhanced Pre-Trained Language Representations with
Message Passing on Hierarchical Relational Graphs [26.557447199727758]
本稿では,微調整プロセスに基づく知識認識型言語モデルフレームワークを提案する。
我々のモデルは、KGからの世界知識をBERTのような既存の言語モデルに効率的に組み込むことができる。
論文 参考訳(メタデータ) (2021-09-09T12:39:17Z) - Neuro-Symbolic Representations for Video Captioning: A Case for
Leveraging Inductive Biases for Vision and Language [148.0843278195794]
ビデオキャプションのためのマルチモーダルなニューラルシンボリック表現を学習するための新しいモデルアーキテクチャを提案する。
本手法では,ビデオ間の関係を学習する辞書学習手法と,そのペアによるテキスト記述を用いる。
論文 参考訳(メタデータ) (2020-11-18T20:21:19Z) - Modeling Content and Context with Deep Relational Learning [31.854529627213275]
DRaiLは、ディープリレーショナルモデルを特定するためのオープンソースの宣言型フレームワークである。
我々のフレームワークは、表現型言語エンコーダとの容易な統合をサポートし、表現、推論、学習間の相互作用を研究するためのインターフェースを提供する。
論文 参考訳(メタデータ) (2020-10-20T17:09:35Z) - JAKET: Joint Pre-training of Knowledge Graph and Language Understanding [73.43768772121985]
本稿では,知識グラフと言語の両方をモデル化する新しい事前学習フレームワークであるJAKETを提案する。
知識モジュールと言語モジュールは相互に支援するための重要な情報を提供する。
我々の設計により、事前学習されたモデルは、新しいドメインの見知らぬ知識グラフに容易に適応できる。
論文 参考訳(メタデータ) (2020-10-02T05:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。