論文の概要: Situated Epistemic Infrastructures: A Diagnostic Framework for Post-Coherence Knowledge
- arxiv url: http://arxiv.org/abs/2508.04995v2
- Date: Tue, 12 Aug 2025 07:13:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 12:16:51.388365
- Title: Situated Epistemic Infrastructures: A Diagnostic Framework for Post-Coherence Knowledge
- Title(参考訳): Situated Epistemic Infrastructures:ポストコヒーレンス知識のための診断フレームワーク
- Authors: Matthew Kelly,
- Abstract要約: 本稿では,ポストコヒーレンス条件下での知識の権威化を診断するための診断ツールとして,Situated Epistemic Infrastructuresフレームワークを紹介した。
本論文は,AIガバナンス,知識生産,情報システムの倫理的設計に関する議論に,学術コミュニケーションの表現主義モデルに対する堅牢な代替手段を提供することによって貢献する。
- 参考スコア(独自算出の注目度): 1.6724987809393428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) such as ChatGPT have rendered visible the fragility of contemporary knowledge infrastructures by simulating coherence while bypassing traditional modes of citation, authority, and validation. This paper introduces the Situated Epistemic Infrastructures (SEI) framework as a diagnostic tool for analyzing how knowledge becomes authoritative across hybrid human-machine systems under post-coherence conditions. Rather than relying on stable scholarly domains or bounded communities of practice, SEI traces how credibility is mediated across institutional, computational, and temporal arrangements. Integrating insights from infrastructure studies, platform theory, and epistemology, the framework foregrounds coordination over classification, emphasizing the need for anticipatory and adaptive models of epistemic stewardship. The paper contributes to debates on AI governance, knowledge production, and the ethical design of information systems by offering a robust alternative to representationalist models of scholarly communication.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、伝統的な引用、権威、バリデーションのモードをバイパスしながらコヒーレンスをシミュレートすることで、現代の知識基盤の脆弱さを浮き彫りにした。
本稿では,ポストコヒーレンス条件下でのハイブリッドヒトマシンシステムにおける知識の権威化を診断する手段として,Situated Epistemic Infrastructures (SEI) フレームワークを紹介した。
安定した学問的領域や境界づけられた実践コミュニティに頼るのではなく、SEIは制度的、計算的、時間的アレンジで信頼性がどのように仲介されているかを辿る。
インフラ研究、プラットフォーム理論、認識学からの洞察を統合することで、フレームワークは分類よりも協調し、先天的なスチュワードシップの予測モデルと適応モデルの必要性を強調している。
本論文は,AIガバナンス,知識生産,情報システムの倫理的設計に関する議論に,学術コミュニケーションの表現主義モデルに対する堅牢な代替手段を提供することによって貢献する。
関連論文リスト
- Medical Reasoning in the Era of LLMs: A Systematic Review of Enhancement Techniques and Applications [59.721265428780946]
医学における大きな言語モデル(LLM)は印象的な能力を実現しているが、体系的で透明で検証可能な推論を行う能力に重大なギャップが残っている。
本稿は、この新興分野に関する最初の体系的なレビューを提供する。
本稿では,学習時間戦略とテスト時間メカニズムに分類した推論強化手法の分類法を提案する。
論文 参考訳(メタデータ) (2025-08-01T14:41:31Z) - Ontology-based knowledge representation for bone disease diagnosis: a foundation for safe and sustainable medical artificial intelligence systems [0.0]
本研究では,Ho Chi Minh City Hospital for Traumatology and Orthopedicsと共同で開発された骨疾患診断のためのオントロジーベースのフレームワークを提案する。
この方法論は、体系的な知識のデジタル化、標準化された医療用語マッピング、モジュールアーキテクチャ設計を通じて臨床解釈可能性を維持する。
今後は、臨床データセットの拡充と総合的なシステム検証の実施に注力する。
論文 参考訳(メタデータ) (2025-06-05T08:41:23Z) - Information Science Principles of Machine Learning: A Causal Chain Meta-Framework Based on Formalized Information Mapping [1.145820303039203]
本研究は、機械学習における統一的な論理的枠組みの欠如に対処することに焦点を当てる。
モデル解釈可能性と倫理的安全性に関する普遍的な定義が提案されている。
3つの重要な定理は、モデル解釈可能性と情報回復可能性の等価性、倫理的安全性の保証、一般化誤差の推定である。
論文 参考訳(メタデータ) (2025-05-19T14:39:41Z) - PyTDC: A multimodal machine learning training, evaluation, and inference platform for biomedical foundation models [59.17570021208177]
PyTDCは、マルチモーダルな生物学的AIモデルのための合理化されたトレーニング、評価、推論ソフトウェアを提供する機械学習プラットフォームである。
本稿では、PyTDCのアーキテクチャの構成要素と、我々の知る限り、導入したシングルセルドラッグターゲットMLタスクにおける第一種ケーススタディについて論じる。
論文 参考訳(メタデータ) (2025-05-08T18:15:38Z) - KERAIA: An Adaptive and Explainable Framework for Dynamic Knowledge Representation and Reasoning [46.85451489222176]
KERAIAはシンボリックナレッジエンジニアリングのための新しいフレームワークとソフトウェアプラットフォームである。
動的で複雑でコンテキストに敏感な環境で知識を表現、推論、実行するという永続的な課題に対処する。
論文 参考訳(メタデータ) (2025-05-07T10:56:05Z) - A process algebraic framework for multi-agent dynamic epistemic systems [55.2480439325792]
本稿では,マルチエージェント,知識ベース,動的システムのモデリングと解析のための統合フレームワークを提案する。
モデリング側では,このようなフレームワークを実用的な目的に使いやすくするプロセス代数的,エージェント指向の仕様言語を提案する。
論文 参考訳(メタデータ) (2024-07-24T08:35:50Z) - Towards Ontology-Enhanced Representation Learning for Large Language Models [0.18416014644193066]
本稿では,知識を参照オントロジーで注入することで,埋め込み言語モデル(埋め込み言語モデル)の関心を高める新しい手法を提案する。
言語情報(概念同義語と記述)と構造情報(is-a関係)は、包括的な概念定義の集合をコンパイルするために使用される。
これらの概念定義は、対照的な学習フレームワークを使用して、ターゲットの埋め込み-LLMを微調整するために使用される。
論文 参考訳(メタデータ) (2024-05-30T23:01:10Z) - Knowledge-Aware Bayesian Deep Topic Model [50.58975785318575]
本稿では,事前知識を階層型トピックモデリングに組み込むベイズ生成モデルを提案する。
提案モデルでは,事前知識を効率的に統合し,階層的なトピック発見と文書表現の両面を改善する。
論文 参考訳(メタデータ) (2022-09-20T09:16:05Z) - EBOCA: Evidences for BiOmedical Concepts Association Ontology [55.41644538483948]
本論文は,生物医学領域の概念とそれらの関連性を記述するオントロジーであるEBOCAと,それらの関連性を支持するエビデンスを提案する。
DISNETのサブセットから得られるテストデータとテキストからの自動アソシエーション抽出が変換され、実際のシナリオで使用できる知識グラフが作成されるようになった。
論文 参考訳(メタデータ) (2022-08-01T18:47:03Z) - Biologically-informed deep learning models for cancer: fundamental
trends for encoding and interpreting oncology data [0.0]
本稿では,癌生物学における推論を支援するために用いられる深層学習(DL)モデルに着目した構造化文献解析を行う。
この研究は、既存のモデルが、先行知識、生物学的妥当性、解釈可能性とのより良い対話の必要性にどのように対処するかに焦点を当てている。
論文 参考訳(メタデータ) (2022-07-02T12:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。