論文の概要: CORRPUS: Detecting Story Inconsistencies via Codex-Bootstrapped
Neurosymbolic Reasoning
- arxiv url: http://arxiv.org/abs/2212.10754v1
- Date: Wed, 21 Dec 2022 04:21:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:36:47.168715
- Title: CORRPUS: Detecting Story Inconsistencies via Codex-Bootstrapped
Neurosymbolic Reasoning
- Title(参考訳): CORRPUS: Codex-Bootstrapped Neurosymbolic Reasoning によるストーリー不整合の検出
- Authors: Yijiang River Dong, Lara J. Martin, Chris Callison-Burch
- Abstract要約: この作業は、Codexのような最先端のCode-LLMを利用して、ストーリーの状態を追跡するシンボリックメソッドの使用をブートストラップする。
我々は,既存のストーリー理解タスクにおいて,CoRRPUSシステムと抽象化されたプロンプトプロシージャが,現在の構造化LCM技術に勝ることを示す。
- 参考スコア(独自算出の注目度): 21.645075241532794
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Story generation and understanding -- as with all NLG/NLU tasks -- has seen a
surge in neurosymbolic work. Researchers have recognized that, while large
language models (LLMs) have tremendous utility, they can be augmented with
symbolic means to be even better and to make up for any flaws that the neural
networks might have. However, symbolic methods are extremely costly in terms of
the amount of time and expertise needed to create them. In this work, we
capitalize on state-of-the-art Code-LLMs, such as Codex, to bootstrap the use
of symbolic methods for tracking the state of stories and aiding in story
understanding. We show that our CoRRPUS system and abstracted prompting
procedures can beat current state-of-the-art structured LLM techniques on
pre-existing story understanding tasks (bAbI task 2 and Re^3) with minimal hand
engineering. We hope that this work can help highlight the importance of
symbolic representations and specialized prompting for LLMs as these models
require some guidance for performing reasoning tasks properly.
- Abstract(参考訳): 物語の生成と理解は、すべてのNLG/NLUタスクと同様に、ニューロシンボリックな仕事が急増している。
研究者たちは、大きな言語モデル(LLM)には膨大な実用性があるが、ニューラルネットワークが持つ可能性のある欠陥を補うための象徴的な手段で拡張できることを認識している。
しかし、シンボリックな手法は、それらを作るのに必要な時間と専門知識の量に関して非常にコストがかかる。
本研究では,Codexのような最先端のCode-LLMを利用して,ストーリーの状態を追跡し,ストーリー理解を支援するシンボリックメソッドの利用をブートストラップする。
我々は,既存のストーリー理解タスク (bAbI Task 2 および Re^3) において,CoRRPUS システムと抽象的なプロンプトプロシージャが,手作業の最小化によって,現在最先端の構造化 LLM 技術に勝ることを示す。
我々は,これらのモデルが推論タスクを適切に実行するためのガイダンスを必要とするため,記号表現の重要性と,LLMの特殊的促進を強調できることを期待している。
関連論文リスト
- The Role of Foundation Models in Neuro-Symbolic Learning and Reasoning [54.56905063752427]
Neuro-Symbolic AI(NeSy)は、AIシステムの安全なデプロイを保証することを約束している。
ニューラルネットワークとシンボリックコンポーネントを順次トレーニングする既存のパイプラインは、広範なラベリングを必要とする。
新しいアーキテクチャであるNeSyGPTは、生データから象徴的特徴を抽出する視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2024-02-02T20:33:14Z) - Symbol-LLM: Leverage Language Models for Symbolic System in Visual Human
Activity Reasoning [58.5857133154749]
本稿では,広い範囲のシンボルと合理的なルールを持つ新しい記号体系を提案する。
我々は,LLMの最近の進歩を2つの理想的な性質の近似として活用する。
本手法は,広範囲な活動理解タスクにおいて優位性を示す。
論文 参考訳(メタデータ) (2023-11-29T05:27:14Z) - Image Manipulation via Multi-Hop Instructions -- A New Dataset and
Weakly-Supervised Neuro-Symbolic Approach [31.380435286215757]
私たちは自然言語による画像操作に興味があります。
NeuroSIMと呼ばれるシステムでは,多目的シーン上で複雑なマルチホップ推論を行うことができる。
論文 参考訳(メタデータ) (2023-05-23T17:59:10Z) - Mastering Symbolic Operations: Augmenting Language Models with Compiled
Neural Networks [48.14324895100478]
ニューラルアーキテクチャ」は、コンパイルされたニューラルネットワーク(CoNN)を標準変換器に統合する。
CoNNは、人工的に生成された注意重みを通してルールを明示的にエンコードするように設計されたニューラルネットワークモジュールである。
実験は,シンボル操作における長さ一般化,効率,解釈可能性の観点から,既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-04-04T09:50:07Z) - Symbolic Visual Reinforcement Learning: A Scalable Framework with
Object-Level Abstraction and Differentiable Expression Search [63.3745291252038]
DiffSESは、離散的なシンボルポリシーを発見する新しいシンボリック学習手法である。
生のピクセルレベルの入力の代わりにオブジェクトレベルの抽象化を使用することで、DiffSESはシンボリック表現の単純さとスケーラビリティの利点を活用することができる。
我々の実験は、DiffSESが最先端のシンボルRL法よりもシンプルでスケーラブルなシンボリックポリシーを生成することができることを示した。
論文 参考訳(メタデータ) (2022-12-30T17:50:54Z) - Learning Neuro-Symbolic Skills for Bilevel Planning [63.388694268198655]
意思決定は、連続したオブジェクト中心の状態、継続的なアクション、長い地平線、まばらなフィードバックを持つロボット環境では難しい。
タスク・アンド・モーション・プランニング(TAMP)のような階層的なアプローチは、意思決定を2つ以上の抽象レベルに分解することでこれらの課題に対処する。
我々の主な貢献は、オペレーターとサンプルラーを組み合わせたパラメータ化警察の学習方法である。
論文 参考訳(メタデータ) (2022-06-21T19:01:19Z) - Neuro-Symbolic Causal Language Planning with Commonsense Prompting [67.06667162430118]
言語プランニングは、より単純な低レベルステップに分解することで、複雑な高レベルな目標を実装することを目的としている。
以前の手法では、大規模な言語モデルからそのような能力を得るために、手動の例えか注釈付きプログラムが必要である。
本稿では,LLMからの手続き的知識をコモンセンス・インフュージョン・プロンプトにより引き起こすニューロシンボリック因果言語プランナー(CLAP)を提案する。
論文 参考訳(メタデータ) (2022-06-06T22:09:52Z) - Lifelong Reinforcement Learning with Temporal Logic Formulas and Reward
Machines [30.161550541362487]
逐次線形時間論理式とReward Machines(LSRM)を用いた長寿命強化学習を提案する。
まず、線形時間論理(SLTL)を導入し、既存の線形時間論理言語を補足する。
次に、Reward Machines (RM) を用いて、高レベルイベントを符号化したタスクの構造的報酬関数を利用する。
論文 参考訳(メタデータ) (2021-11-18T02:02:08Z) - A Memory-Augmented Neural Network Model of Abstract Rule Learning [2.3562267625320352]
任意のロールフィラーバインディングのためのニューラルネットワークの能力に焦点を当てる。
本稿では,外部メモリを結合機構として使用することを学習するリカレントニューラルネットワークモデルであるEmergent Symbol Binding Network (ESBN)を紹介する。
このメカニズムにより、ESBNのトレーニングプロセスを通じて、明示的なシンボル処理機械を必要とせずに、シンボルのような変数表現が出現する。
論文 参考訳(メタデータ) (2020-12-13T22:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。