論文の概要: A time for monsters: Organizational knowing after LLMs
- arxiv url: http://arxiv.org/abs/2511.15762v1
- Date: Wed, 19 Nov 2025 14:07:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.321997
- Title: A time for monsters: Organizational knowing after LLMs
- Title(参考訳): 怪物の時- LLM 以降の組織的知識
- Authors: Samer Faraj, Joel Perez Torrents, Saku Mantere, Anand Bhardwaj,
- Abstract要約: 大規模言語モデル(LLM)は、表現と実践に基づく視点の不安定な基盤によって組織的知識を再構築している。
我々は LLM をハラウェイアンモンスター,すなわちハイブリッドカテゴリ,すなわち,確立したカテゴリを不安定化する境界交差エンティティとして概念化し,調査の新たな可能性を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) are reshaping organizational knowing by unsettling the epistemological foundations of representational and practice-based perspectives. We conceptualize LLMs as Haraway-ian monsters, that is, hybrid, boundary-crossing entities that destabilize established categories while opening new possibilities for inquiry. Focusing on analogizing as a fundamental driver of knowledge, we examine how LLMs generate connections through large-scale statistical inference. Analyzing their operation across the dimensions of surface/deep analogies and near/far domains, we highlight both their capacity to expand organizational knowing and the epistemic risks they introduce. Building on this, we identify three challenges of living with such epistemic monsters: the transformation of inquiry, the growing need for dialogical vetting, and the redistribution of agency. By foregrounding the entangled dynamics of knowing-with-LLMs, the paper extends organizational theory beyond human-centered epistemologies and invites renewed attention to how knowledge is created, validated, and acted upon in the age of intelligent technologies.
- Abstract(参考訳): 大規模言語モデル(LLM)は、表現と実践に基づく視点の認識論的基礎を解き放ち、組織的知識を再構築している。
我々は,LLMをハラウェイのモンスター,すなわち,確立したカテゴリを不安定化しつつ,新たな調査可能性を開くハイブリッドな境界交差エンティティとして概念化している。
知識の原動力としてのアナライゼーションに着目し,LLMが大規模統計的推論によってどのように接続を生成するかを検討する。
表面/深部アナロジーとニア/ファードメインの次元をまたいだ操作を分析し、組織的知識の拡大能力と、それらが導入するてんかんリスクの両方を強調します。
このことから, 調査の変容, ダイアログ的拒否の必要性の増大, 代理店の再分配の3つの課題が明らかになった。
ナレッジ・ウィズ・LLMの絡み合ったダイナミクスをフォアグラウンドにすることで、人間中心の認識論を超えて組織理論を拡張し、知的テクノロジーの時代における知識の創出、検証、行動に対する新たな注意を喚起する。
関連論文リスト
- Large language models for spreading dynamics in complex systems [15.581915022853337]
拡散力学は、複雑なシステムとネットワーク科学の物理学における中心的なトピックである。
大規模言語モデル(LLM)は、自然言語理解、推論、生成において強力な能力を発揮している。
LLMは伝播系に埋め込まれた対話的エージェントとして機能し、拡散経路やフィードバック構造に影響を与える可能性がある。
論文 参考訳(メタデータ) (2026-02-08T18:58:43Z) - LLM-empowered knowledge graph construction: A survey [0.0]
知識グラフは長い間、構造化知識表現と推論の基盤として機能してきた。
LLM(Large Language Models)の出現により、KGsの構築は、ルールベースおよび統計パイプラインから言語駆動および生成フレームワークへの、新たなパラダイムシフトに入った。
論文 参考訳(メタデータ) (2025-10-23T08:43:28Z) - From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [66.36007274540113]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Knowledge Homophily in Large Language Models [75.12297135039776]
大規模言語モデル(LLM)における類似知識のホモフィリパターンについて検討する。
我々は LLM の知識を三重項レベルと実体レベルの両方の知識チェックを通じてグラフ表現にマッピングする。
このホモフィリ原理により、三重項の実体レベルの知識度スコアを推定するグラフニューラルネットワーク(GNN)回帰モデルを提案する。
論文 参考訳(メタデータ) (2025-09-28T09:40:27Z) - Unraveling the cognitive patterns of Large Language Models through module communities [45.399985422756224]
大規模言語モデル(LLM)は、科学、工学、社会において大きな進歩を遂げ、我々の世界を変えました。
実用性と実用性にもかかわらず、LLMの基盤となるメカニズムは何十億ものパラメータや複雑な構造の中に隠されている。
生物学における新たな認知を理解するためのアプローチを採用することで、このギャップに対処する。
論文 参考訳(メタデータ) (2025-08-25T16:49:38Z) - Exploring Consciousness in LLMs: A Systematic Survey of Theories, Implementations, and Frontier Risks [46.93509559847712]
意識は人間の心の最も深い特徴の1つである。
大規模言語モデル(LLM)が前例のないペースで発展するにつれ、知性と意識に関する疑問がますます重要になっている。
論文 参考訳(メタデータ) (2025-05-26T10:40:52Z) - Unveiling Knowledge Utilization Mechanisms in LLM-based Retrieval-Augmented Generation [77.10390725623125]
検索強化世代(RAG)は知識範囲の拡大に広く利用されている。
RAGは、オープンドメインの質問応答のような知識集約的なタスクを約束しているので、複雑なタスクやインテリジェントアシスタントへの幅広い応用は、その実用性をさらに進歩させてきた。
本稿では、RAGが内部(パラメトリック)知識と外部(検索)知識を統合する本質的なメカニズムを体系的に検討する。
論文 参考訳(メタデータ) (2025-05-17T13:13:13Z) - A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - LogiDynamics: Unraveling the Dynamics of Inductive, Abductive and Deductive Logical Inferences in LLM Reasoning [74.0242521818214]
本稿では,大言語モデル(LLM)におけるインダクティブ(システム1)と帰納的/帰納的(システム2)の推論の比較力学を体系的に検討する。
我々は、制御されたアナログ推論環境、多様度(テキスト、視覚、記号)、難易度、タスク形式(MCQ/フリーテキスト)を利用する。
我々の分析によると、System 2のパイプラインは一般的に、特に視覚的/象徴的なモダリティや難しいタスクにおいて優れており、System 1はテキストやより簡単な問題に対して競争力がある。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - Cognitive LLMs: Towards Integrating Cognitive Architectures and Large Language Models for Manufacturing Decision-making [51.737762570776006]
LLM-ACTRは、ヒトに適応し、多目的な意思決定を提供する新しいニューロシンボリックアーキテクチャである。
我々のフレームワークは、ACT-Rの内部決定過程の知識を潜在神経表現として抽出し、組み込む。
デザイン・フォー・マニュファクチャリング・タスクに関する我々の実験は、タスク性能の向上と基礎的意思決定能力の向上を両立させたものである。
論文 参考訳(メタデータ) (2024-08-17T11:49:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。