論文の概要: ProSLM : A Prolog Synergized Language Model for explainable Domain Specific Knowledge Based Question Answering
- arxiv url: http://arxiv.org/abs/2409.11589v1
- Date: Tue, 17 Sep 2024 22:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 19:39:45.378935
- Title: ProSLM : A Prolog Synergized Language Model for explainable Domain Specific Knowledge Based Question Answering
- Title(参考訳): ProSLM : 説明可能なドメイン固有知識に基づく質問応答のための Prolog Synergized Language Model
- Authors: Priyesh Vakharia, Abigail Kufeldt, Max Meyers, Ian Lane, Leilani Gilpin,
- Abstract要約: ニューロシンボリックアプローチは説明可能なシンボル表現を取り入れることで、不透明な神経系に堅牢性を加えることができる。
本稿では,大規模言語モデルの堅牢性と信頼性を向上させるために,ニューロシンボリックな新しいフレームワークであるシステム名を提案する。
我々の研究は、ニューロシンボリックな生成AIテキスト検証とユーザパーソナライゼーションの新しい領域を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neurosymbolic approaches can add robustness to opaque neural systems by incorporating explainable symbolic representations. However, previous approaches have not used formal logic to contextualize queries to and validate outputs of large language models (LLMs). We propose \systemname{}, a novel neurosymbolic framework, to improve the robustness and reliability of LLMs in question-answering tasks. We provide \systemname{} with a domain-specific knowledge base, a logical reasoning system, and an integration to an existing LLM. This framework has two capabilities (1) context gathering: generating explainable and relevant context for a given query, and (2) validation: confirming and validating the factual accuracy of a statement in accordance with a knowledge base (KB). Our work opens a new area of neurosymbolic generative AI text validation and user personalization.
- Abstract(参考訳): ニューロシンボリックアプローチは説明可能なシンボル表現を取り入れることで、不透明な神経系に堅牢性を加えることができる。
しかし,従来のアプローチでは,大規模言語モデル(LLM)の出力に対するクエリのコンテキスト化や検証に形式論理を使用していなかった。
質問応答タスクにおけるLLMの堅牢性と信頼性を向上させるために,新しいニューロシンボリック・フレームワークである‘systemname{}’を提案する。
ドメイン固有の知識ベース、論理的推論システム、既存のLLMとの統合を備えたシステム名{}を提供する。
本フレームワークは,(1) コンテキスト収集: 所定のクエリに対して説明可能なコンテキストを生成し,(2) 検証: 知識ベース(KB)に応じて文の事実的正確性を確認し検証する。
我々の研究は、ニューロシンボリックな生成AIテキスト検証とユーザパーソナライゼーションの新しい領域を開く。
関連論文リスト
- Neurosymbolic AI approach to Attribution in Large Language Models [5.3454230926797734]
ニューロシンボリックAI(NesyAI)は、ニューラルネットワークの強みと構造化されたシンボリック推論を組み合わせる。
本稿では、NesyAIフレームワークが既存の属性モデルをどのように拡張し、より信頼性が高く、解釈可能で、適応可能なシステムを提供するかを検討する。
論文 参考訳(メタデータ) (2024-09-30T02:20:36Z) - Proof of Thought : Neurosymbolic Program Synthesis allows Robust and Interpretable Reasoning [1.3003982724617653]
大規模言語モデル(LLM)は自然言語処理に革命をもたらしたが、一貫性のない推論に苦戦している。
本研究では,LLM出力の信頼性と透明性を高めるフレームワークであるProof of Thoughtを紹介する。
主な貢献は、論理的整合性を高めるためのソート管理を備えた堅牢な型システム、事実的知識と推論的知識を明確に区別するための規則の明示である。
論文 参考訳(メタデータ) (2024-09-25T18:35:45Z) - Prompt2DeModel: Declarative Neuro-Symbolic Modeling with Natural Language [18.00674366843745]
本稿では,自然言語による複雑なニューロシンボリックモデルのためのドメイン知識構築のためのパイプラインを提案する。
提案するパイプラインは,動的なコンテキスト内実演検索,シンボル可視化からのフィードバックに基づくモデル改良,ユーザインタラクションなどの手法を利用する。
このアプローチによって、ML/AIに精通していないドメイン専門家でさえ、自身の知識をカスタマイズされたニューラルモデルに組み込むように正式に宣言することが可能になる。
論文 参考訳(メタデータ) (2024-07-30T03:10:30Z) - On the verification of Embeddings using Hybrid Markov Logic [2.113770213797994]
本稿では,学習した表現の複雑な性質を検証するためのフレームワークを提案する。
このフレームワーク内のプロパティのパラメータを学習するためのアプローチを提案する。
本稿では,グラフニューラルネットワーク,深部知識追跡,知能学習システムにおける検証について述べる。
論文 参考訳(メタデータ) (2023-12-13T17:04:09Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Towards Verifiable Generation: A Benchmark for Knowledge-aware Language Model Attribution [48.86322922826514]
本稿では,知識認識型言語モデル属性(KaLMA)の新たな課題について述べる。
まず、属性のソースを構造化されていないテキストから知識グラフ(KG)に拡張し、そのリッチな構造は属性のパフォーマンスと作業シナリオの両方に役立ちます。
第2に,不完全な知識リポジトリを考慮した「意識的非能力」の設定を提案する。
第3に,テキスト品質,引用品質,引用アライメントを含む総合的な自動評価指標を提案する。
論文 参考訳(メタデータ) (2023-10-09T11:45:59Z) - The Whole Truth and Nothing But the Truth: Faithful and Controllable
Dialogue Response Generation with Dataflow Transduction and Constrained
Decoding [65.34601470417967]
本稿では,ニューラルネットワークモデリングとルールベース生成の強みを組み合わせた対話応答生成のためのハイブリッドアーキテクチャについて述べる。
本実験により, 本システムは, 流布性, 妥当性, 真理性の評価において, ルールベースおよび学習的アプローチの両方に優れることがわかった。
論文 参考訳(メタデータ) (2022-09-16T09:00:49Z) - elBERto: Self-supervised Commonsense Learning for Question Answering [131.51059870970616]
本稿では、市販QAモデルアーキテクチャと互換性のあるコモンセンスフレームワークの自己教師型双方向表現学習を提案する。
このフレームワークは5つの自己教師型タスクから構成されており、リッチコモンセンスを含むコンテキストから追加のトレーニング信号を完全に活用するようモデルに強制する。
elBERtoは、単純な語彙的類似性比較が役に立たないような、アウト・オブ・パラグラフや非エフェクトな問題に対して、大幅に改善されている。
論文 参考訳(メタデータ) (2022-03-17T16:23:45Z) - Question Answering over Knowledge Bases by Leveraging Semantic Parsing
and Neuro-Symbolic Reasoning [73.00049753292316]
本稿では,意味解析と推論に基づくニューロシンボリック質問回答システムを提案する。
NSQAはQALD-9とLC-QuAD 1.0で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-12-03T05:17:55Z) - Leap-Of-Thought: Teaching Pre-Trained Models to Systematically Reason
Over Implicit Knowledge [96.92252296244233]
大規模な事前学習言語モデル(LM)は推論能力を得るが、制御は困難である。
本研究では,暗黙的,事前学習された知識と明示的な自然言語文を併用して,体系的推論を確実に行うことができることを示す。
我々の研究は、シンプルな自然言語文を追加することで、モデルを簡単に修正できるユーザと対話することで、常に改善されるオープンドメインシステムへの道を開く。
論文 参考訳(メタデータ) (2020-06-11T17:02:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。