論文の概要: Can the Inference Logic of Large Language Models be Disentangled into
Symbolic Concepts?
- arxiv url: http://arxiv.org/abs/2304.01083v1
- Date: Mon, 3 Apr 2023 15:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 14:44:16.322940
- Title: Can the Inference Logic of Large Language Models be Disentangled into
Symbolic Concepts?
- Title(参考訳): 大きな言語モデルの推論ロジックは、シンボリックな概念に分解できるだろうか?
- Authors: Wen Shen, Lei Cheng, Yuxiao Yang, Mingjie Li, Quanshi Zhang
- Abstract要約: 本稿では,大言語モデル(LLM)の推論ロジックを象徴的概念の集合として説明する。
シンボリックな概念は、通常、類似の入力文間で高い伝達性を示す。
- 参考スコア(独自算出の注目度): 28.08344486751948
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we explain the inference logic of large language models (LLMs)
as a set of symbolic concepts. Many recent studies have discovered that
traditional DNNs usually encode sparse symbolic concepts. However, because an
LLM has much more parameters than traditional DNNs, whether the LLM also
encodes sparse symbolic concepts is still an open problem. Therefore, in this
paper, we propose to disentangle the inference score of LLMs for dialogue tasks
into a small number of symbolic concepts. We verify that we can use those
sparse concepts to well estimate all inference scores of the LLM on all
arbitrarily masking states of the input sentence. We also evaluate the
transferability of concepts encoded by an LLM and verify that symbolic concepts
usually exhibit high transferability across similar input sentences. More
crucially, those symbolic concepts can be used to explain the exact reasons
accountable for the LLM's prediction errors.
- Abstract(参考訳): 本稿では,大言語モデル(llms)の推論論理を記号的概念の集合として説明する。
最近の多くの研究で、伝統的なDNNは、通常スパースシンボルの概念を符号化している。
しかし、llm は従来の dnn よりも多くのパラメータを持つため、llm がスパースシンボリック概念を符号化するかどうかはまだ未解決の問題である。
そこで本研究では,対話タスクのためのLLMの推論スコアを,少数の記号的概念に分解することを提案する。
入力文の任意のマスキング状態に対して,これらの疎い概念を用いて LLM のすべての推測スコアを適切に推定できることを検証する。
また、LLMで符号化された概念の転送可能性を評価し、シンボリックな概念が類似の入力文間で高い転送性を示すことを検証する。
より重要なことに、これらの象徴的な概念は、LLMの予測エラーの原因となる正確な理由を説明するために使用できる。
関連論文リスト
- Structured Event Reasoning with Large Language Models [4.897267974042842]
現実の出来事に対する推論は、AIとNLPの統一的な課題である。
私は、エンド・ツー・エンドのLLMが複雑なイベントを体系的に推論できないことを示しています。
イベントの構造化表現と合わせてLLMを使用するための3つの一般的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-28T19:03:41Z) - Can Large Language Models Understand Symbolic Graphics Programs? [136.5639211254501]
シンボリックグラフィックスプログラムはコンピュータグラフィックスで人気がある。
シンボルグラフィックプログラムの意味的視覚的理解のためのベンチマークを作成する。
LLMの推理性能は概して優れていた。
論文 参考訳(メタデータ) (2024-08-15T17:59:57Z) - Faithful Logical Reasoning via Symbolic Chain-of-Thought [39.94884827166363]
シンボリック表現と論理規則をChain-of-Thoughtプロンプトと統合するフレームワークであるSymbCoTを提案する。
我々は、SymbCoTがCoT法よりも大幅に改善されていることを示す。
これは、論理的推論のために記号表現と規則をCoTに結合する最初の方法である。
論文 参考訳(メタデータ) (2024-05-28T16:55:33Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Do Large Language Models Understand Logic or Just Mimick Context? [14.081178100662163]
本稿では,2つの論理的推論データセット上での大規模言語モデル(LLM)の推論能力について検討する。
LLMは論理規則を真に理解していないことが判明した。むしろ、文脈内学習は、これらのモデルが正しい解に到達する可能性を高めている。
論文 参考訳(メタデータ) (2024-02-19T12:12:35Z) - Can LLMs Reason with Rules? Logic Scaffolding for Stress-Testing and Improving LLMs [87.34281749422756]
大規模言語モデル(LLM)は、様々な推論タスクにおいて、印象的な人間的なパフォーマンスを実現している。
しかし、その根底にある推論規則の熟達性は、人間の能力に欠ける。
本稿では,推論ルールベースであるULogicを構築するための,推論ルール生成フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T03:38:51Z) - Towards Concept-Aware Large Language Models [56.48016300758356]
概念は、学習、推論、コミュニケーションなど、様々な人間の認知機能において重要な役割を果たす。
概念を形作り、推論する能力を持つ機械を授けることは、ほとんどない。
本研究では,現代における大規模言語モデル(LLM)が,人間の概念とその構造をどのように捉えているかを分析する。
論文 参考訳(メタデータ) (2023-11-03T12:19:22Z) - Stochastic LLMs do not Understand Language: Towards Symbolic,
Explainable and Ontologically Based LLMs [0.0]
データ駆動型大規模言語モデル(LLM)の相対的な成功は象徴的対準記号的議論の反映ではないと我々は主張する。
本稿では,記号的,説明可能な,存在論的に基礎を成す言語モデルに,効果的なボトムアップ戦略を適用することを提案する。
論文 参考訳(メタデータ) (2023-09-12T02:14:05Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Logic-LM: Empowering Large Language Models with Symbolic Solvers for
Faithful Logical Reasoning [101.26814728062065]
大規模言語モデル(LLM)は人間のような推論能力を示しているが、それでも複雑な論理的問題に悩まされている。
本稿では,論理問題の解法を改善するために,LLMとシンボリックソルバを統合した新しいフレームワークであるLogic-LMを紹介する。
論文 参考訳(メタデータ) (2023-05-20T22:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。