論文の概要: The Outputs of Large Language Models are Meaningless
- arxiv url: http://arxiv.org/abs/2509.22206v1
- Date: Fri, 26 Sep 2025 11:21:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.383076
- Title: The Outputs of Large Language Models are Meaningless
- Title(参考訳): 大規模言語モデルの出力は無意味である
- Authors: Anandi Hattiangadi, Anders J. Schoubye,
- Abstract要約: 我々は,大規模言語モデル (LLM) の出力が無意味であるという結論を論じる。
我々の主張は、2つの重要な前提に基づいている: (a) LLMの出力が文字通りの意味を持つために、ある種類の意図が必要とされること、そして (b) LLMが正しい種類の意図を持つことができないこと。
論文は、たとえ議論が健全であっても、LLMの出力が意味のあるように見え、真の信念や知識を得るのに使用できる理由を論じて締めくくる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we offer a simple argument for the conclusion that the outputs of large language models (LLMs) are meaningless. Our argument is based on two key premises: (a) that certain kinds of intentions are needed in order for LLMs' outputs to have literal meanings, and (b) that LLMs cannot plausibly have the right kinds of intentions. We defend this argument from various types of responses, for example, the semantic externalist argument that deference can be assumed to take the place of intentions and the semantic internalist argument that meanings can be defined purely in terms of intrinsic relations between concepts, such as conceptual roles. We conclude the paper by discussing why, even if our argument is sound, the outputs of LLMs nevertheless seem meaningful and can be used to acquire true beliefs and even knowledge.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)の出力が無意味であるという結論に対して,簡単な議論を行う。
私たちの議論は2つの主要な前提に基づいている。
a) LLMの出力が文字通りの意味を持つために特定の種類の意図が必要であること、
b) LLM が正しい種類の意図を持つことができないこと。
例えば、推論が意図の代わりに行われるというセマンティック・外部主義者の議論や、概念的役割のような概念間の本質的な関係の観点から、意味が純粋に定義できるというセマンティック・内部主義者の議論などである。
論文は、たとえ議論が健全であっても、LLMの出力が意味のあるように見え、真の信念や知識を得るのに使用できる理由を論じて結論付けた。
関連論文リスト
- On the Same Wavelength? Evaluating Pragmatic Reasoning in Language Models across Broad Concepts [69.69818198773244]
本研究では,言語理解と言語生産の両面で,多種多様なLMについて検討する。
最先端のLMは小さくはないが,言語理解において高い性能を発揮する。
論文 参考訳(メタデータ) (2025-09-08T17:59:32Z) - Does Reasoning Emerge? Examining the Probabilities of Causation in Large Language Models [6.922021128239465]
AIの最近の進歩は、大規模言語モデル(LLM)の能力によって推進されている。
本稿では,LLMが実世界の推論機構をいかに効果的に再現できるかを評価することを目的とした,理論的かつ実用的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-15T15:19:11Z) - Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL [78.80673954827773]
大きな言語モデル(LLM)は、言語理解を高め、解釈可能性を改善し、バイアスを減らすために構造化セマンティクスをキャプチャする上で重要な役割を果たす。
セマンティック・ロール・ラベルリング(SRL)を,構造化意味論を抽出するLLMの能力を探るための基本課題として用いることを提案する。
LLMは実際にセマンティック構造をキャプチャすることができ、スケールアップは常にポテンシャルを反映するわけではない。
エラーのかなりの重複は、LLMと訓練されていない人間の両方によって行われ、全てのエラーの約30%を占めることに私たちは驚いています。
論文 参考訳(メタデータ) (2024-05-10T11:44:05Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Do Large Language Models Understand Logic or Just Mimick Context? [14.081178100662163]
本稿では,2つの論理的推論データセット上での大規模言語モデル(LLM)の推論能力について検討する。
LLMは論理規則を真に理解していないことが判明した。むしろ、文脈内学習は、これらのモデルが正しい解に到達する可能性を高めている。
論文 参考訳(メタデータ) (2024-02-19T12:12:35Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z) - Meaning without reference in large language models [14.26628686684198]
我々は、大きな言語モデル(LLM)が意味の重要な側面を捉えているのではないかと論じている。
概念的役割は、内部表現状態間の関係によって定義されるので、意味はモデルのアーキテクチャから決定できない。
論文 参考訳(メタデータ) (2022-08-05T02:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。