論文の概要: Ruled by the Representation Space: On the University's Embrace of Large Language Models
- arxiv url: http://arxiv.org/abs/2505.03513v1
- Date: Tue, 06 May 2025 13:22:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-07 18:50:11.392557
- Title: Ruled by the Representation Space: On the University's Embrace of Large Language Models
- Title(参考訳): 表現空間に規定される大学における大規模言語モデルへの展開
- Authors: Katia Schwerzmann,
- Abstract要約: 本稿では,大学における大規模言語モデル(LLM)の急速な導入が学習,教育,研究に与える影響について考察する。
LLMを非批判的に採用することで、大学は、規範が民主的ではない生成的AIの分野であるヘテロノミーの分野に自治権を放棄する、と論じている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper explores the implications of universities' rapid adoption of large language models (LLMs) for studying, teaching, and research by analyzing the logics underpinning their representation space. It argues that by uncritically adopting LLMs, the University surrenders its autonomy to a field of heteronomy, that of generative AI, whose norms are not democratically shaped. Unlike earlier forms of rule-based AI, which sought to exclude human judgment and interpretation, generative AI's new normative rationality is explicitly based on the automation of moral judgment, valuation, and interpretation. By integrating LLMs into pedagogical and research contexts before establishing a critical framework for their use, the University subjects itself to being governed by contingent, ever-evolving, and domain-non-specific norms that structure the model's virtual representation space and thus everything it generates.
- Abstract(参考訳): 本稿では,大学における大規模言語モデル(LLM)の急速な導入が,表現空間を支える論理を解析し,学習,教育,研究に与える影響について考察する。
LLMを非批判的に採用することで、大学は、規範が民主的ではない生成的AIの分野であるヘテロノミーの分野に自治権を放棄する、と論じている。
人間の判断と解釈を排除しようとした以前のルールベースのAIとは異なり、生成的AIの新しい規範的合理性は、道徳的判断、評価、解釈の自動化に明確に基づいている。
LLMを教育的・研究的な文脈に統合し、それを使うための重要な枠組みを確立することで、大学臣民は、モデルの仮想表現空間とそれが生成するすべてのものを構成する、連続的で、絶え間なく進化し、ドメインに依存しない規範によって統治されるようになる。
関連論文リスト
- Generalising from Self-Produced Data: Model Training Beyond Human Constraints [0.0]
本稿では,AIモデルが新たな知識を自律的に生成し,検証する新しい枠組みを提案する。
このアプローチの中心は、人間のベンチマークを必要とせずに学習をガイドする、無制限で使い捨ての数値報酬である。
論文 参考訳(メタデータ) (2025-04-07T03:48:02Z) - LogiDynamics: Unraveling the Dynamics of Logical Inference in Large Language Model Reasoning [49.58786377307728]
本稿では、類似推論のための制御された評価環境を導入することにより、探索的アプローチを採用する。
帰納的,帰納的,帰納的,帰納的な推論パイプラインの比較力学を解析する。
仮説選択や検証,洗練といった高度なパラダイムを考察し,論理的推論のスケールアップの可能性を明らかにする。
論文 参考訳(メタデータ) (2025-02-16T15:54:53Z) - IOLBENCH: Benchmarking LLMs on Linguistic Reasoning [8.20398036986024]
IOL(International Linguistics Olympiad)問題に基づく新しいベンチマークであるIOLBENCHを紹介する。
このデータセットは、文法、形態学、音韻学、意味論をテストする様々な問題を含んでいる。
最も先進的なモデルでさえ、言語的な複雑さの複雑さを扱うのに苦労している。
論文 参考訳(メタデータ) (2025-01-08T03:15:10Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Generative Artificial Intelligence: A Systematic Review and Applications [7.729155237285151]
本稿では、ジェネレーティブAIにおける最近の進歩と技術に関する体系的なレビューと分析について述べる。
生成AIがこれまで行った大きな影響は、大きな言語モデルの開発による言語生成である。
論文は、責任あるAIの原則と、これらの生成モデルの持続可能性と成長に必要な倫理的考察から締めくくられる。
論文 参考訳(メタデータ) (2024-05-17T18:03:59Z) - SELF: Self-Evolution with Language Feedback [68.6673019284853]
SELF(Self-Evolution with Language Feedback)は、大規模言語モデルを進化させる新しいアプローチである。
LLMは、人間の学習プロセスと同様、自己回帰を通じて自己改善を可能にする。
数学および一般タスクにおける実験により,SELFは人間の介入なしにLLMの能力を高めることができることが示された。
論文 参考訳(メタデータ) (2023-10-01T00:52:24Z) - The Representational Status of Deep Learning Models [0.9065034043031668]
本稿では、DLMが対象をリレーショナルな意味で表現するが、一般的には、DLMがターゲットの局所的に意味論的に分解可能な表現を符号化していると考える理由はない、と論じる。
この結果は、説明可能なAI(XAI)に即座に影響し、深層学習表現のグローバルリレーショナルな性質の探求に注意を向ける。
論文 参考訳(メタデータ) (2023-03-21T17:19:35Z) - The Role of Large Language Models in the Recognition of Territorial
Sovereignty: An Analysis of the Construction of Legitimacy [67.44950222243865]
Google MapsやLarge Language Models (LLM)のような技術ツールは、しばしば公平で客観的であると見なされる。
我々は、クリミア、ウェストバンク、トランスニトリアの3つの論争領域の事例を、ウィキペディアの情報と国連の決議に対するChatGPTの反応を比較して強調する。
論文 参考訳(メタデータ) (2023-03-17T08:46:49Z) - Strong-AI Autoepistemic Robots Build on Intensional First Order Logic [0.0]
我々は、この一階述語論理(IFOL)を現代ロボットの象徴的アーキテクチャとみなす。
本稿では,特殊時相の「Konow$predicate」と「deductive axioms」を導入することで,ロボットの自己認識的推論能力の具体例を示す。
論文 参考訳(メタデータ) (2022-12-14T16:23:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。