論文の概要: Not Minds, but Signs: Reframing LLMs through Semiotics
- arxiv url: http://arxiv.org/abs/2505.17080v2
- Date: Tue, 01 Jul 2025 11:26:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-02 20:01:17.154458
- Title: Not Minds, but Signs: Reframing LLMs through Semiotics
- Title(参考訳): 心ではなくサイン: セミオティックスによるLLMのリフレーミング
- Authors: Davide Picca,
- Abstract要約: 本稿では,Large Language Models (LLMs) に関するセミオティックな視点を論じる。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、言語形式を再結合し、再テクスチャ化し、循環させることが主な機能であると提案する。
我々は文学、哲学、教育、文化生産の応用を探究する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper challenges the prevailing tendency to frame Large Language Models (LLMs) as cognitive systems, arguing instead for a semiotic perspective that situates these models within the broader dynamics of sign manipulation and meaning-making. Rather than assuming that LLMs understand language or simulate human thought, we propose that their primary function is to recombine, recontextualize, and circulate linguistic forms based on probabilistic associations. By shifting from a cognitivist to a semiotic framework, we avoid anthropomorphism and gain a more precise understanding of how LLMs participate in cultural processes, not by thinking, but by generating texts that invite interpretation. Through theoretical analysis and practical examples, the paper demonstrates how LLMs function as semiotic agents whose outputs can be treated as interpretive acts, open to contextual negotiation and critical reflection. We explore applications in literature, philosophy, education, and cultural production, emphasizing how LLMs can serve as tools for creativity, dialogue, and critical inquiry. The semiotic paradigm foregrounds the situated, contingent, and socially embedded nature of meaning, offering a more rigorous and ethically aware framework for studying and using LLMs. Ultimately, this approach reframes LLMs as technological participants in an ongoing ecology of signs. They do not possess minds, but they alter how we read, write, and make meaning, compelling us to reconsider the foundations of language, interpretation, and the role of artificial systems in the production of knowledge.
- Abstract(参考訳): 本稿では,認知システムとして大規模言語モデル(LLM)を定式化する傾向に挑戦する。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、それらの主要な機能は、確率的関連に基づく言語形式を再結合し、再文化し、循環させることである、と提案する。
認知論者からセミオティックな枠組みに移行することで、人間同型を回避し、LLMがどのように文化的プロセスに参加するかをより正確に理解し、思考だけでなく、解釈を招待するテキストを生成する。
理論的分析と実例を通して,LLMが意味的交渉や批判的考察に開放された解釈的行為として処理できるセミオティックエージェントとして機能することを示す。
文学、哲学、教育、文化生産の応用を探求し、LCMが創造性、対話、批判的探求のツールとしてどのように機能するかを強調した。
セミオティック・パラダイムは、LLMを研究・使用するためのより厳密で倫理的に意識された枠組みを提供する、位置、随伴、社会的に埋め込まれた意味の性質を前提としている。
結局のところ、このアプローチはLSMを、現在進行中の兆候の生態学の技術的参加者として再編成する。
彼らは心を持っていないが、私たちの読み方、書き方、意味の作り方を変え、言語の基礎、解釈、知識の創造における人工システムの役割を再考するよう私たちを説得する。
関連論文リスト
- FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Towards Uncovering How Large Language Model Works: An Explainability Perspective [38.07611356855978]
大規模言語モデル(LLM)は言語タスクのブレークスルーをもたらしたが、その顕著な一般化と推論能力を実現する内部メカニズムは不透明のままである。
本稿では,LLM機能の基礎となるメカニズムを,説明可能性のレンズを通して明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-02-16T13:46:06Z) - Measurement in the Age of LLMs: An Application to Ideological Scaling [1.9413548770753526]
本稿では,大規模言語モデル(LLM)を用いて,社会科学的測定タスクに固有の概念的乱雑を探索する。
我々は、議員とテキストの両方のイデオロギー的尺度を引き出すために、LLMの顕著な言語的流布に依存している。
論文 参考訳(メタデータ) (2023-12-14T18:34:06Z) - AlignedCoT: Prompting Large Language Models via Native-Speaking Demonstrations [52.43593893122206]
Alignedcotは、大規模言語モデルを呼び出すためのコンテキスト内学習技術である。
ゼロショットシナリオでは、一貫した正しいステップワイズプロンプトを達成する。
数学的推論とコモンセンス推論の実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Enhancing Logical Reasoning in Large Language Models to Facilitate Legal
Applications [4.062485135201161]
大規模言語モデル(LLM)は人間の言語理解と生成をエミュレートしようとするが、論理的推論におけるその能力は限られている。
LLMに論理的推論を効果的に教えるにはどうすればよいのか?
論理的推論におけるLLMの能力の強化に焦点をあてて、法やその他の論理的な分野における適用性の拡大を目指す。
論文 参考訳(メタデータ) (2023-11-22T01:51:50Z) - Towards Concept-Aware Large Language Models [56.48016300758356]
概念は、学習、推論、コミュニケーションなど、様々な人間の認知機能において重要な役割を果たす。
概念を形作り、推論する能力を持つ機械を授けることは、ほとんどない。
本研究では,現代における大規模言語モデル(LLM)が,人間の概念とその構造をどのように捉えているかを分析する。
論文 参考訳(メタデータ) (2023-11-03T12:19:22Z) - Large Language Models: The Need for Nuance in Current Debates and a
Pragmatic Perspective on Understanding [1.3654846342364308]
LLM(Large Language Models)は、文法的に正しい、流動的なテキストを生成する能力において、非並列である。
本論文は,LLM能力の批判において再発する3点を批判的に評価する。
LLMにおける現実の理解と意図の問題に関する実践的な視点を概説する。
論文 参考訳(メタデータ) (2023-10-30T15:51:04Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。