論文の概要: SymbolicThought: Integrating Language Models and Symbolic Reasoning for Consistent and Interpretable Human Relationship Understanding
- arxiv url: http://arxiv.org/abs/2507.04189v1
- Date: Sat, 05 Jul 2025 23:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.059661
- Title: SymbolicThought: Integrating Language Models and Symbolic Reasoning for Consistent and Interpretable Human Relationship Understanding
- Title(参考訳): シンボリックノート:一貫性と解釈可能な人間関係理解のための言語モデルの統合とシンボリック推論
- Authors: Runcong Zhao, Qinglin Zhu, Hainiu Xu, Bin Liang, Yulan He, Lin Gui,
- Abstract要約: SymbolicThoughtは、大きな言語モデルとシンボリック推論を組み合わせた、人間によるループ型フレームワークである。
編集可能な文字関係グラフを構築し、7種類の論理的制約を使ってそれらを洗練し、リアルタイムの検証とコンフリクトの解決を可能にする。
実験によると、SybolicThoughtはアノテーションの精度と一貫性を改善し、時間コストを大幅に削減する。
- 参考スコア(独自算出の注目度): 21.30887121514266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding character relationships is essential for interpreting complex narratives and conducting socially grounded AI research. However, manual annotation is time-consuming and low in coverage, while large language models (LLMs) often produce hallucinated or logically inconsistent outputs. We present SymbolicThought, a human-in-the-loop framework that combines LLM-based extraction with symbolic reasoning. The system constructs editable character relationship graphs, refines them using seven types of logical constraints, and enables real-time validation and conflict resolution through an interactive interface. To support logical supervision and explainable social analysis, we release a dataset of 160 interpersonal relationships with corresponding logical structures. Experiments show that SymbolicThought improves annotation accuracy and consistency while significantly reducing time cost, offering a practical tool for narrative understanding, explainable AI, and LLM evaluation.
- Abstract(参考訳): 複雑な物語を解釈し、社会に根ざしたAI研究を行うためには、キャラクターの関係を理解することが不可欠である。
しかし、手動のアノテーションは時間がかかり、カバレッジは低く、大きな言語モデル(LLM)はしばしば幻覚的あるいは論理的に一貫性のない出力を生成する。
我々は,LLMに基づく抽出と記号的推論を併用した,Human-in-the-loopフレームワークであるSybolicThoughtを提案する。
このシステムは、編集可能な文字関係グラフを構築し、7種類の論理的制約を用いてそれらを洗練し、インタラクティブインターフェースを通じてリアルタイムの検証とコンフリクト解決を可能にする。
論理的監督と説明可能な社会分析を支援するために,160の対人関係と対応する論理構造を関連づけたデータセットを作成した。
実験によると、SybolicThoughtはアノテーションの精度と一貫性を向上し、時間コストを大幅に削減し、物語理解、説明可能なAI、LLM評価のための実用的なツールを提供する。
関連論文リスト
- T-CPDL: A Temporal Causal Probabilistic Description Logic for Developing Logic-RAG Agent [5.439020425819001]
T-CPDL(Temporal Causal Probabilistic Description Logic)は、Description Logicを時間間隔演算子、明示的な因果関係、確率的アノテーションで拡張する統合フレームワークである。
T-CPDLは、言語モデル出力の推論精度、解釈可能性、信頼性校正を大幅に改善する。
この研究は、高度なLogic-Retrieval-Augmented Generation (Logic-RAG)フレームワークの開発の基礎となる。
論文 参考訳(メタデータ) (2025-06-23T12:11:15Z) - Neuro-Symbolic Contrastive Learning for Cross-domain Inference [13.649270716741535]
帰納的論理プログラミング(ILP)は、多種多様でスパースで限られたデータセットにまたがる論理的関係の推論に優れています。
本稿では,ニューロシンボリック・コントラスト学習という2つのアプローチの橋渡しについて述べる。
論文 参考訳(メタデータ) (2025-02-13T11:48:46Z) - NAVER: A Neuro-Symbolic Compositional Automaton for Visual Grounding with Explicit Logic Reasoning [22.60247555240363]
本稿では,人間の認知のような推論を必要とする手法の課題について考察する。
本研究では,明示的な確率論的論理推論を統合する構成的視覚的接地手法であるNAVERを提案する。
その結果、NAVERは最近のエンドツーエンドや構成ベースラインと比較して SoTA の性能が向上していることがわかった。
論文 参考訳(メタデータ) (2025-02-01T09:19:08Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - When Do Program-of-Thoughts Work for Reasoning? [51.2699797837818]
本稿では,コードと推論能力の相関性を測定するために,複雑性に富んだ推論スコア(CIRS)を提案する。
具体的には、抽象構文木を用いて構造情報をエンコードし、論理的複雑性を計算する。
コードはhttps://github.com/zjunlp/EasyInstructのEasyInstructフレームワークに統合される。
論文 参考訳(メタデータ) (2023-08-29T17:22:39Z) - Modeling Hierarchical Reasoning Chains by Linking Discourse Units and
Key Phrases for Reading Comprehension [80.99865844249106]
本稿では,論理的推論の基盤として,対話レベルと単語レベルの両方の文脈を扱う総合グラフネットワーク(HGN)を提案する。
具体的には、ノードレベルの関係とタイプレベルの関係は、推論過程におけるブリッジと解釈できるが、階層的な相互作用機構によってモデル化される。
論文 参考訳(メタデータ) (2023-06-21T07:34:27Z) - LogiGAN: Learning Logical Reasoning via Adversarial Pre-training [58.11043285534766]
本稿では,言語モデルの論理的推論能力を向上させるために,教師なしの対人事前学習フレームワークLogiGANを提案する。
人間の学習におけるリフレクティブ思考の促進効果に着想を得て,逆生成検証アーキテクチャを用いて学習思考過程をシミュレートする。
LogiGANで事前トレーニングされたベースモデルと大規模言語モデルの両方で、12のデータセットで明らかなパフォーマンス改善が示されている。
論文 参考訳(メタデータ) (2022-05-18T08:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。