論文の概要: Memory Undone: Between Knowing and Not Knowing in Data Systems
- arxiv url: http://arxiv.org/abs/2602.21180v1
- Date: Tue, 24 Feb 2026 18:29:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.883213
- Title: Memory Undone: Between Knowing and Not Knowing in Data Systems
- Title(参考訳): メモリアンドン:データシステムにおける知識と知らないこと
- Authors: Viktoriia Makovska, George Fletcher, Julia Stoyanovich, Tetiana Zakharchenko,
- Abstract要約: 我々は,忘れることが同時に権利を保護し,サイレンシングを可能にすることを示す。
我々は、知識基盤における第一級能力として、アンフレーミング・アンラーニングを提案する。
- 参考スコア(独自算出の注目度): 14.165847961943193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning and data systems increasingly function as infrastructures of memory: they ingest, store, and operationalize traces of personal, political, and cultural life. Yet contemporary governance demands credible forms of forgetting, from GDPR-backed deletion to harm-mitigation and the removal of manipulative content, while technical infrastructures are optimized to retain, replicate, and reuse. This work argues that "forgetting" in computational systems cannot be reduced to a single operation (e.g., record deletion) and should instead be treated as a sociotechnical practice with distinct mechanisms and consequences. We clarify a vocabulary that separates erasure (removing or disabling access to data artifacts), unlearning (interventions that bound or remove a data point influence on learned parameters and outputs), exclusion (upstream non-collection and omission), and forgetting as an umbrella term spanning agency, temporality, reversibility, and scale. Building on examples from machine unlearning, semantic dependencies in data management, participatory data modeling, and manipulation at scale, we show how forgetting can simultaneously protect rights and enable silencing. We propose reframing unlearning as a first-class capability in knowledge infrastructures, evaluated not only by compliance or utility retention, but by its governance properties: transparency, accountability, and epistemic justice.
- Abstract(参考訳): 機械学習とデータシステムは記憶の基盤としてますます機能し、個人的、政治的、文化的生活の痕跡を取り込み、保存し、運用する。
しかし、現代のガバナンスは、GDPRが支援する削除から、有害な緩和や操作的コンテンツの除去まで、信頼できる形で忘れることを要求する一方で、技術的なインフラは維持、複製、再利用のために最適化されている。
この研究は、計算システムにおける「偽造」は単一の操作(例えば、記録削除)に還元することはできず、代わりに異なるメカニズムと結果を持つ社会技術的な実践として扱われるべきであると主張している。
我々は、消去(データアーティファクトへのアクセスを排除または無効にする)、未学習(学習パラメータと出力にデータポイントの影響を束縛または排除する介入)、排除(上流の非収集と省略)、そして傘の用語として、時間性、可逆性、スケールを区別する語彙を明確にする。
機械学習,データ管理におけるセマンティック依存関係,参加型データモデリング,大規模操作などの例に基づいて,忘れることが権利を同時に保護し,サイレンシングを可能にする方法を示す。
我々は,知識基盤の第一級能力としてのアンフレーミング・アンラーニングを提案し,コンプライアンスやユーティリティ・リテンションだけでなく,透明性,説明責任,認識的正義といったガバナンス特性によって評価される。
関連論文リスト
- Representation Unlearning: Forgetting through Information Compression [3.9189279162842854]
モデル表現空間で直接学習を行うフレームワークであるRepresentation Unlearningを紹介する。
Representation Unlearningは,パラメータ中心のベースラインよりも信頼性が高く,実用性も向上し,計算効率も向上することを示す。
論文 参考訳(メタデータ) (2026-01-29T11:28:02Z) - Pre-Forgettable Models: Prompt Learning as a Native Mechanism for Unlearning [9.512928441517811]
ファンデーションモデルは、様々なモダリティやタスクにまたがる堅牢で伝達可能な表現を可能にすることによって、マルチメディア分析を変革してきた。
リトレーニング、アクティベーション編集、蒸留を含む従来の未学習のアプローチは、しばしば高価で脆弱で、リアルタイムまたは継続的な進化するシステムに不適である。
本稿では,知識の獲得と除去を1つの学習段階内に統一する,プロンプトベースの学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-05T13:28:04Z) - MemOS: A Memory OS for AI System [116.87568350346537]
大規模言語モデル(LLM)は、人工知能(AGI)にとって不可欠な基盤となっている。
既存のモデルは、主に静的パラメータと短命なコンテキスト状態に依存しており、ユーザの好みを追跡したり、長い期間にわたって知識を更新する能力を制限する。
MemOSはメモリを管理可能なシステムリソースとして扱うメモリオペレーティングシステムである。
論文 参考訳(メタデータ) (2025-07-04T17:21:46Z) - GUARD: Guided Unlearning and Retention via Data Attribution for Large Language Models [17.83305806604326]
GUARDは、データ属性を通じて学習と保持をガイドするフレームワークである。
適応的で一様でないアンラーニングウェイトをサンプルに割り当て、逆にプロキシ属性スコアに比例する。
我々はGUARDが従来の手法に匹敵するメトリクスを忘れずに保持を大幅に改善する厳密な理論的保証を提供する。
論文 参考訳(メタデータ) (2025-06-12T17:49:09Z) - UnUnlearning: Unlearning is not sufficient for content regulation in advanced generative AI [50.61495097098296]
大規模言語モデル(LLM)におけるアンラーニングのパラダイムを再考する。
未学習の概念を導入し、未学習の知識を文脈内で再導入する。
我々は、不寛容な知識に対するコンテンツフィルタリングが不可欠であり、正確な未学習スキームでさえ、効果的なコンテンツ規制には不十分であると主張している。
論文 参考訳(メタデータ) (2024-06-27T10:24:35Z) - Fast Machine Unlearning Without Retraining Through Selective Synaptic
Dampening [51.34904967046097]
Selective Synaptic Dampening (SSD)は高速で、訓練データの長期保存を必要としない。
高速で性能が高く,トレーニングデータの長期保存を必要としない,新しい2段階のポストホック,リトレーニングフリーなマシンアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T11:30:45Z) - Fair Machine Unlearning: Data Removal while Mitigating Disparities [5.724350004671127]
忘れられる権利は、EUのジェネラル・レギュレーション(ジェネラル・レギュレーション)によって概説される基本原則である。
残ったデータに再トレーニングすることで、ナイーティブに「期待」を達成できる。
学習」は、フェアネスのような現実世界のアプリケーションにとって重要な他の特性に影響を及ぼす。
論文 参考訳(メタデータ) (2023-07-27T10:26:46Z) - Machine Unlearning of Features and Labels [72.81914952849334]
機械学習モデルにおけるアンラーニングとラベルのファーストシナリオを提案する。
提案手法は,影響関数の概念に基づいて,モデルパラメータのクローズドフォーム更新によるアンラーニングを実現する。
論文 参考訳(メタデータ) (2021-08-26T04:42:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。