論文の概要: Reshaping Perception Through Technology: From Ancient Script to Large Language Models
- arxiv url: http://arxiv.org/abs/2602.02794v2
- Date: Wed, 04 Feb 2026 04:45:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 15:07:33.797196
- Title: Reshaping Perception Through Technology: From Ancient Script to Large Language Models
- Title(参考訳): テクノロジーによる知覚の再構築:古代のスクリプトから大規模言語モデルへ
- Authors: Parham Pourdavood, Michael Jacob,
- Abstract要約: AIは人工知能ではなく、新しいメディアとして理解されていると我々は主張する。
我々は、フレキシブルな展開と共同創造の共有論理を通じて認知を形作る技術の流れを辿る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As large language models reshape how we create and access information, questions arise about how to frame their role in human creative and cognitive life. We argue that AI is best understood not as artificial intelligence but as a new medium -- one that, like writing before it, reshapes perception and enables novel forms of creativity. Drawing on Marshall McLuhan's insight that "the medium is the massage," we trace a lineage of technologies -- from DNA and the nervous system to symbols, writing, and now LLMs -- that mold cognition through a shared logic of flexible unfolding and co-creation. We observe that as technologies become more externalized and decoupled from physiology, they introduce both greater creative potential and greater risk of inauthenticity and manipulation. This tension is acute with LLMs, but not unprecedented: ancient responses to writing reveal a recurring human tendency to project intelligence onto powerful new media. Rather than viewing AI as a competitor, we propose framing it as a medium that foregrounds artistic skills: aesthetic judgment, curation, and the articulation of vision. We discuss implications for education, creative practice, and how society might adapt to this new medium as it did to writing.
- Abstract(参考訳): 大きな言語モデルが情報の作成とアクセスの仕方を変えていくにつれ、人間の創造的・認知的生活においてどのように役割を果たせるかという疑問が生まれます。
AIは人工知能としてではなく、新しいメディアとして理解されている、と私たちは主張する。それは、前もって書くのと同じように、認識を再認識し、新しい創造性を実現するものだ。Marshall McLuhan氏の"媒体はマッサージである"という洞察に基づいて、私たちは、DNAと神経系から、フレキシブルな展開と共創の共有論理を通じて認知を形作る、認知を形作る技術の流れをたどる。
我々は、テクノロジーがより外部化され、生理学から切り離されるにつれて、より創造的な可能性と不確実性と操作のリスクの両方を導入することを観察する。
書物に対する古代の反応は、強力な新しいメディアにインテリジェンスを投射する人間の傾向を明らかにしている。
AIを競争相手と見なすのではなく、美的判断、キュレーション、視覚の明瞭さといった芸術的スキルを予見する媒体としてフレーミングすることを提案する。
我々は、教育、創造的実践、そして社会がこの新たな媒体にどのように適応するかについて論じる。
関連論文リスト
- Adopting a human developmental visual diet yields robust, shape-based AI vision [0.0]
長年の研究にもかかわらず、人工知能(AI)システムと人間の視覚の重大な相違が続いている。
私たちは、人間の視覚が幼少期から成人期へどのように発達するかからインスピレーションを受けます。
我々は、この人間にインスパイアされたカリキュラムを通してAIシステムを導くことは、人間の行動と密接に一致したモデルを生み出すことを示す。
論文 参考訳(メタデータ) (2025-07-03T20:52:08Z) - Alien Recombination: Exploring Concept Blends Beyond Human Cognitive Availability in Visual Art [90.8684263806649]
視覚芸術の創造において、AIが人間の認知的限界を超越する方法を示します。
我々の研究は、視覚芸術には膨大な未探索の概念的組み合わせが含まれているという仮説を立てている。
本稿では,人間の認知能力を超えた概念の組み合わせを同定し,生成するエイリアン組換え法を提案する。
論文 参考訳(メタデータ) (2024-11-18T11:55:38Z) - Teaching Video Diffusion Model with Latent Physical Phenomenon Knowledge [49.60640053101214]
本稿では,物理現象の知識が潜むビデオ拡散モデルを教える新しい手法を提案する。
CLIPビジョンと言語エンコーダの空間的関係に基づいて擬似言語プロンプトを生成する。
物理現象の数値シミュレーションと実世界観測の両方を通して,本手法を広範囲に検証した。
論文 参考訳(メタデータ) (2024-11-18T07:26:09Z) - SARD: A Human-AI Collaborative Story Generation [0.0]
本研究では,大規模言語モデルを用いたマルチチャプタストーリ生成のためのドラッグアンドドロップ型ビジュアルインタフェースであるSARDを提案する。
SARDのユーザビリティとその創造性に対する評価は、物語のノードベースの可視化は、著者がメンタルモデルを構築するのに役立つかもしれないが、著者にとって不必要な精神的オーバーヘッドを生じさせることを示している。
また、AIはストーリーの複雑さに関係なく、語彙的に多様性の低いストーリーを生成することもわかりました。
論文 参考訳(メタデータ) (2024-03-03T17:48:42Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Artistic Strategies to Guide Neural Networks [0.0]
本稿では、画像、テキスト、フォーム、セミオティック空間の翻訳という文脈において、現在のAI技術の可能性と限界について考察する。
比較的短時間で高解像度画像と3Dオブジェクトの生成が達成された。
またしても、アートワークがテクノロジー開発の触媒となる様子が見られます。
論文 参考訳(メタデータ) (2023-07-06T22:57:10Z) - IMAGINE: An Integrated Model of Artificial Intelligence-Mediated
Communication Effects [0.0]
人工知能を用いたコミュニケーション効果統合モデル(IMAGINE)の提案
提案されている概念的枠組みは、メディアに対する人々の反応の測定とコンテンツのAI生成の間の連続的なリアルタイム接続のシナリオにおいて、研究者が研究を理論化し、行うのを支援することを目的としている。
論文 参考訳(メタデータ) (2022-12-13T19:48:38Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。