論文の概要: Futurity as Infrastructure: A Techno-Philosophical Interpretation of the AI Lifecycle
- arxiv url: http://arxiv.org/abs/2508.15680v1
- Date: Thu, 21 Aug 2025 16:00:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.399155
- Title: Futurity as Infrastructure: A Techno-Philosophical Interpretation of the AI Lifecycle
- Title(参考訳): インフラストラクチャとしての未来:AIライフサイクルのテクノ哲学的解釈
- Authors: Mark Cote, Susana Aires,
- Abstract要約: 本稿は、EU AI Actのテクノ哲学的読解によって、AIシステムにおけるデータの長期的ダイナミクスに関する洞察が得られることを主張する。
AIパイプラインのフレーム化、データ分散、トレーニング体制、アーキテクチャ、機能ストア、トランスファー学習のための概念ツールを導入します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper argues that a techno-philosophical reading of the EU AI Act provides insight into the long-term dynamics of data in AI systems, specifically, how the lifecycle from ingestion to deployment generates recursive value chains that challenge existing frameworks for Responsible AI. We introduce a conceptual tool to frame the AI pipeline, spanning data, training regimes, architectures, feature stores, and transfer learning. Using cross-disciplinary methods, we develop a technically grounded and philosophically coherent analysis of regulatory blind spots. Our central claim is that what remains absent from policymaking is an account of the dynamic of becoming that underpins both the technical operation and economic logic of AI. To address this, we advance a formal reading of AI inspired by Simondonian philosophy of technology, reworking his concept of individuation to model the AI lifecycle, including the pre-individual milieu, individuation, and individuated AI. To translate these ideas, we introduce futurity: the self-reinforcing lifecycle of AI, where more data enhances performance, deepens personalisation, and expands application domains. Futurity highlights the recursively generative, non-rivalrous nature of data, underpinned by infrastructures like feature stores that enable feedback, adaptation, and temporal recursion. Our intervention foregrounds escalating power asymmetries, particularly the tech oligarchy whose infrastructures of capture, training, and deployment concentrate value and decision-making. We argue that effective regulation must address these infrastructural and temporal dynamics, and propose measures including lifecycle audits, temporal traceability, feedback accountability, recursion transparency, and a right to contest recursive reuse.
- Abstract(参考訳): 本稿では、EU AI Actのテクノ哲学的読解によって、AIシステムにおけるデータの長期的ダイナミクス、特に、摂取からデプロイメントまでのライフサイクルが、既存のResponsible AIフレームワークに挑戦する再帰的バリューチェーンを生成する方法に関する洞察が得られることを論じる。
AIパイプラインのフレーム化、データ分散、トレーニング体制、アーキテクチャ、機能ストア、トランスファー学習のための概念ツールを導入します。
学際的手法を用いて,規制盲点の技術的基盤と哲学的コヒーレントな分析を開発する。
私たちの中心的な主張は、政策作成から逸脱しているものは、AIの技術的な運用と経済論理の両方を支えるものとなることのダイナミクスである、ということです。
これを解決するために、私たちは、Simondonianのテクノロジー哲学にインスパイアされたAIの正式な読解を推進し、AIライフサイクルをモデル化する彼の概念を再構築した。
より多くのデータがパフォーマンスを高め、パーソナライズを強化し、アプリケーションドメインを拡張するAIの自己強化ライフサイクル。
未来性は、フィードバック、適応、時間的再帰を可能にする機能ストアのようなインフラによって支えられている、再帰的に生成され、非軍事的なデータの性質を強調します。
私たちの介入は、パワーアシンメトリ、特にキャプチャ、トレーニング、デプロイメントのインフラが価値と意思決定に集中している技術的オリガルシをエスカレートする基盤になります。
効果的な規制は、これらのインフラ的・時間的ダイナミクスに対処する必要があると主張し、ライフサイクル監査、時間的トレーサビリティ、フィードバックアカウンタビリティ、再帰的透明性、再帰的再利用に反対する権利を含む措置を提案する。
関連論文リスト
- Federated Agentic AI for Wireless Networks: Fundamentals, Approaches, and Applications [60.721304295812445]
フェデレートラーニング(FL)はエージェントAIの全体的なループを改善する可能性がある。
まず、エージェントAIとメインストリームのFLタイプの基礎を要約し、各FLタイプがエージェントAIのループの特定のコンポーネントを強化する方法について説明する。
低高度無線ネットワークにおけるエージェントAIの動作決定性能を向上させるためにFRLを用いたケーススタディを行う。
論文 参考訳(メタデータ) (2026-03-02T11:26:56Z) - Toward Carbon-Neutral Human AI: Rethinking Data, Computation, and Learning Paradigms for Sustainable Intelligence [2.7946918847372277]
本稿では,大規模で静的なデータセットとモノリシックなトレーニングパラダイムへの依存度を批判する。
我々は,段階的な学習,炭素認識の最適化,ループ内の人間とのコラボレーションを重視した,新しいフレームワークであるHuman AIを紹介した。
論文 参考訳(メタデータ) (2025-10-27T17:02:30Z) - Edge General Intelligence Through World Models and Agentic AI: Fundamentals, Solutions, and Challenges [87.02855999212817]
エッジ・ジェネラル・インテリジェンス(エッジ・ジェネラル・インテリジェンス、Edge General Intelligence、EGI)は、分散エージェントが自律的に知覚、理性、行動する能力を持つエッジ・コンピューティングの変革的進化を表す。
世界モデルは、将来の軌跡を予測するだけでなく、積極的に想像するプロアクティブな内部シミュレーターとして機能し、不確実性の理由を定め、予見で多段階のアクションを計画する。
この調査は、世界モデルがどのようにエージェント人工知能(AI)システムをエッジで強化できるかを包括的に分析することで、ギャップを埋める。
論文 参考訳(メタデータ) (2025-08-13T07:29:40Z) - Rethinking Data Protection in the (Generative) Artificial Intelligence Era [115.71019708491386]
現代の(生産的な)AIモデルやシステムに生じる多様な保護ニーズを捉える4段階の分類法を提案する。
当社のフレームワークは、データユーティリティとコントロールのトレードオフに関する構造化された理解を提供し、AIパイプライン全体にわたっています。
論文 参考訳(メタデータ) (2025-07-03T02:45:51Z) - Contextual Memory Intelligence -- A Foundational Paradigm for Human-AI Collaboration and Reflective Generative AI Systems [0.0]
本稿では,知的システム構築のための新しいパラダイムとして,コンテキストメモリインテリジェンス(CMI)を紹介する。
CMIは、メモリを長手コヒーレンス、説明可能性、責任ある意思決定に必要な適応的な基盤として再配置する。
これにより、人間とAIのコラボレーション、生成的AI設計、組織のレジリエンスが向上する。
論文 参考訳(メタデータ) (2025-05-28T18:59:16Z) - Responsible Data Stewardship: Generative AI and the Digital Waste Problem [0.0]
生成AIシステムは、テキスト、画像、オーディオ、ビデオモダリティにまたがる、前例のない合成データの生成レベルを可能にする。
デジタルムダ(Digital waste)とは、特定の目的(あるいは即時)を果たすことなく、リソースを消費するデータをいう。
本稿では,デジタル廃棄物を(生産的な)AI開発における倫理的命令として導入し,環境の持続可能性を責任あるイノベーションの核として位置づける。
論文 参考訳(メタデータ) (2025-05-27T20:07:22Z) - The Critical Canvas--How to regain information autonomy in the AI era [11.15944540843097]
クリティカルキャンバス(Critical Canvas)は、アルゴリズム効率と人事機関のバランスを回復するために設計された情報探索プラットフォームである。
このプラットフォームは、圧倒的な技術的情報を実用的な洞察に変換する。
AIの時代において、より情報に富んだ意思決定と効果的な政策開発を可能にする。
論文 参考訳(メタデータ) (2024-11-25T08:46:02Z) - Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - Causal Reasoning: Charting a Revolutionary Course for Next-Generation
AI-Native Wireless Networks [63.246437631458356]
次世代無線ネットワーク(例:6G)は人工知能(AI)ネイティブである。
本稿では、新たな因果推論分野を基盤として、AIネイティブな無線ネットワークを構築するための新しいフレームワークを紹介する。
因果発見と表現によって対処できる無線ネットワークの課題をいくつか挙げる。
論文 参考訳(メタデータ) (2023-09-23T00:05:39Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。