論文の概要: From Symbol to Meaning: Ontological and Philosophical Reflections on Large Language Models in Information Systems Engineering
- arxiv url: http://arxiv.org/abs/2603.17659v1
- Date: Wed, 18 Mar 2026 12:26:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-19 18:32:57.693257
- Title: From Symbol to Meaning: Ontological and Philosophical Reflections on Large Language Models in Information Systems Engineering
- Title(参考訳): 記号から意味へ:情報システム工学における大規模言語モデルに関するオントロジー的・哲学的考察
- Authors: José Palazzo Moreira de Oliveira,
- Abstract要約: LLM(Large Language Models)の出現は、情報システム工学の基礎の転換点である。
本稿では,LLMが言語,意味,システム設計の関係をどのように再構成するかを総合的に考察する。
究極的には、LSMは自動化のためのツールとしてだけでなく、情報システム工学の哲学的および半論的な基礎を形作るエージェントとして理解されるべきである、と論文は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The advent of Large Language Models (LLMs) represents a turning point in the theoretical foundations of Information Systems Engineering. Beyond their technical significance, LLMs challenge the ontological, epistemological, and semiotic assumptions that have long structured our understanding of in-formation, representation, and knowledge. This article proposes an integrative reflection on how LLMs reconfigure the relationships among language, meaning, and system design, suggesting that their emergence demands a re-examination of the conceptual foundations of contemporary information systems. Sketching on philosophical traditions from Peirce to Heidegger and Floridi, we investigate how the logic of generative models both extends and destabilises classical notions of ontology and signification. The discussion emphasises the necessity of grounding LLM-based systems in transparent, ethically coherent frameworks that respect the integrity of human-centred knowledge processes. Ultimately, the paper argues that LLMs should be understood not merely as tools for automation but as epistemic agents that reshape the philosophical and semiotic foundations of information systems engineering.
- Abstract(参考訳): LLM(Large Language Models)の出現は、情報システム工学の理論基盤の転換点である。
技術的な重要性を超えて、LLMは、情報、表現、知識に対する我々の理解を長い間構造化してきた、存在論的、認識論的、および記号論的仮定に挑戦する。
本稿では,LLMが言語,意味,システム設計の関係をどのように再構成するかを総合的に考察し,現代情報システムの概念的基盤の再検討の必要性を示唆する。
パースからハイデッガー、フロリディまでの哲学的伝統をスケッチし、生成モデルの論理がオントロジーと記号化の古典的概念をどのように拡張し、不安定にするかを考察する。
この議論は、人間中心の知識プロセスの完全性を尊重する透明で倫理的に一貫性のあるフレームワークにおいて、LLMベースのシステムを構築する必要性を強調している。
究極的には、LSMは自動化のためのツールとしてだけでなく、情報システム工学の哲学的および半論的な基礎を形作る疫学的エージェントとして理解されるべきである、と論文は主張する。
関連論文リスト
- LLM-empowered knowledge graph construction: A survey [0.0]
知識グラフは長い間、構造化知識表現と推論の基盤として機能してきた。
LLM(Large Language Models)の出現により、KGsの構築は、ルールベースおよび統計パイプラインから言語駆動および生成フレームワークへの、新たなパラダイムシフトに入った。
論文 参考訳(メタデータ) (2025-10-23T08:43:28Z) - Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Not Minds, but Signs: Reframing LLMs through Semiotics [0.0]
本稿では,Large Language Models (LLMs) に関するセミオティックな視点を論じる。
LLMが言語を理解したり、人間の思考をシミュレートしたりするのではなく、言語形式を再結合し、再テクスチャ化し、循環させることが主な機能であると提案する。
我々は文学、哲学、教育、文化生産の応用を探究する。
論文 参考訳(メタデータ) (2025-05-20T08:49:18Z) - Do Large Language Models Advocate for Inferentialism? [0.0]
ChatGPTやClaudeといった大規模言語モデル(LLM)の出現は、言語哲学に対する新たな課題を提示している。
本稿では,これらのシステムを理解するための代替基盤フレームワークとして,Robert Brandom氏の推論的セマンティクスについて考察する。
論文 参考訳(メタデータ) (2024-12-19T03:48:40Z) - Neurosymbolic Graph Enrichment for Grounded World Models [47.92947508449361]
複雑な問題に対処するために, LLM の反応性を向上し, 活用するための新しいアプローチを提案する。
我々は,大規模言語モデルの強みと構造的意味表現を組み合わせた,多モーダルで知識を付加した意味の形式表現を作成する。
非構造化言語モデルと形式的意味構造とのギャップを埋めることで、自然言語理解と推論における複雑な問題に対処するための新たな道を開く。
論文 参考訳(メタデータ) (2024-11-19T17:23:55Z) - MRKL Systems: A modular, neuro-symbolic architecture that combines large
language models, external knowledge sources and discrete reasoning [50.40151403246205]
巨大な言語モデル(LM)は、自然言語ベースの知識タスクのゲートウェイとして機能する、AIの新しい時代を支えている。
離散的な知識と推論モジュールによって補完される、複数のニューラルモデルによる柔軟なアーキテクチャを定義する。
本稿では,MRKL(Modular Reasoning, Knowledge and Language)システムと呼ばれる,このニューロシンボリックアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2022-05-01T11:01:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。