論文の概要: Reshaping Perception Through Technology: From Ancient Script to Large Language Models
- arxiv url: http://arxiv.org/abs/2602.02794v1
- Date: Mon, 02 Feb 2026 20:55:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.084537
- Title: Reshaping Perception Through Technology: From Ancient Script to Large Language Models
- Title(参考訳): テクノロジーによる知覚の再構築:古代のスクリプトから大規模言語モデルへ
- Authors: Parham Pourdavood, Michael Jacob,
- Abstract要約: 大規模な言語モデルでは、情報の作成とアクセスの仕方を変えていますが、一般的には知覚は単に刺激に対する反応であると考えています。
マーシャル・マクルハン(Marshall McLuhan)のマッサージであるとの洞察に基づいて、我々は異なる方法で知覚を形作る技術の流れをたどる。
テクノロジーがより進歩し、私たちの生理学から切り離されるにつれて、より創造的な可能性とより大きなリスクがもたらされるのを観察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large language models are reshaping how we create and access information, yet we typically view perception as merely reactive to stimuli, overlooking how the physical qualities of different media uniquely shape cognition. Drawing on Marshall McLuhan's insight that the medium is the massage, we trace a lineage of technologies -- from DNA and the nervous system to language, writing, music, and now LLMs -- that mold perception in distinct ways. We observe that as technologies become more advanced and decoupled from our physiology, they introduce both greater creative potential and greater risk: they enable more efficient play, storage, and transmission, while also introducing artificiality and the potential for inauthenticity and manipulation. This tension is particularly acute with LLMs, which allow rapid, playful generation of content increasingly indistinguishable from human-created work. Noting that humans have a recurring tendency to project intelligence onto novel technologies (a pattern visible in ancient responses to writing), we argue that AI should be framed not as a competitor but as a medium that reshapes perceptual skills and enables new forms of creativity.
- Abstract(参考訳): 大きな言語モデルでは、情報の作成とアクセスの仕方を変えていますが、一般的には、知覚は単に刺激に対する反応であり、異なるメディアの物理的性質が認知をユニークに形作る方法を見下ろしています。
マーシャル・マクルハン(Marshall McLuhan)氏のマッサージであるとの洞察に基づいて、我々は、DNAや神経系から言語、文章、音楽、そして現在ではLLMまで、異なる方法で知覚を形作る技術の流れを辿っている。
テクノロジーが私たちの生理学から切り離されるにつれて、より効率的な遊び、記憶、伝達を可能にしながら、人工性や不完全性や操作の可能性をもたらします。
この緊張は、人間によって作られた作品と区別されがちなコンテンツの迅速かつ遊び心のある生成を可能にするLSMで特に深刻である。
人間は、新しい技術(文字に対する古代の反応で見られるパターン)にインテリジェンスを投影する傾向が繰り返されていることを指摘し、AIは競争相手ではなく、知覚のスキルを安心させ、新しい創造性を実現する媒体としてフレーム化されるべきである、と論じます。
関連論文リスト
- Adopting a human developmental visual diet yields robust, shape-based AI vision [0.0]
長年の研究にもかかわらず、人工知能(AI)システムと人間の視覚の重大な相違が続いている。
私たちは、人間の視覚が幼少期から成人期へどのように発達するかからインスピレーションを受けます。
我々は、この人間にインスパイアされたカリキュラムを通してAIシステムを導くことは、人間の行動と密接に一致したモデルを生み出すことを示す。
論文 参考訳(メタデータ) (2025-07-03T20:52:08Z) - Alien Recombination: Exploring Concept Blends Beyond Human Cognitive Availability in Visual Art [90.8684263806649]
視覚芸術の創造において、AIが人間の認知的限界を超越する方法を示します。
我々の研究は、視覚芸術には膨大な未探索の概念的組み合わせが含まれているという仮説を立てている。
本稿では,人間の認知能力を超えた概念の組み合わせを同定し,生成するエイリアン組換え法を提案する。
論文 参考訳(メタデータ) (2024-11-18T11:55:38Z) - Teaching Video Diffusion Model with Latent Physical Phenomenon Knowledge [49.60640053101214]
本稿では,物理現象の知識が潜むビデオ拡散モデルを教える新しい手法を提案する。
CLIPビジョンと言語エンコーダの空間的関係に基づいて擬似言語プロンプトを生成する。
物理現象の数値シミュレーションと実世界観測の両方を通して,本手法を広範囲に検証した。
論文 参考訳(メタデータ) (2024-11-18T07:26:09Z) - SARD: A Human-AI Collaborative Story Generation [0.0]
本研究では,大規模言語モデルを用いたマルチチャプタストーリ生成のためのドラッグアンドドロップ型ビジュアルインタフェースであるSARDを提案する。
SARDのユーザビリティとその創造性に対する評価は、物語のノードベースの可視化は、著者がメンタルモデルを構築するのに役立つかもしれないが、著者にとって不必要な精神的オーバーヘッドを生じさせることを示している。
また、AIはストーリーの複雑さに関係なく、語彙的に多様性の低いストーリーを生成することもわかりました。
論文 参考訳(メタデータ) (2024-03-03T17:48:42Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Artistic Strategies to Guide Neural Networks [0.0]
本稿では、画像、テキスト、フォーム、セミオティック空間の翻訳という文脈において、現在のAI技術の可能性と限界について考察する。
比較的短時間で高解像度画像と3Dオブジェクトの生成が達成された。
またしても、アートワークがテクノロジー開発の触媒となる様子が見られます。
論文 参考訳(メタデータ) (2023-07-06T22:57:10Z) - IMAGINE: An Integrated Model of Artificial Intelligence-Mediated
Communication Effects [0.0]
人工知能を用いたコミュニケーション効果統合モデル(IMAGINE)の提案
提案されている概念的枠組みは、メディアに対する人々の反応の測定とコンテンツのAI生成の間の連続的なリアルタイム接続のシナリオにおいて、研究者が研究を理論化し、行うのを支援することを目的としている。
論文 参考訳(メタデータ) (2022-12-13T19:48:38Z) - Imagination-Augmented Natural Language Understanding [71.51687221130925]
自然言語理解タスクを解決するために,Imagination-Augmented Cross-modal (iACE)を導入する。
iACEは、強力な生成的および事前訓練された視覚・言語モデルから変換された外部知識で視覚的な想像を可能にする。
GLUEとSWAGの実験は、iACEが視覚的に教師付き事前訓練されたモデルよりも一貫した改善を達成していることを示している。
論文 参考訳(メタデータ) (2022-04-18T19:39:36Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。