論文の概要: Deletion Considered Harmful
- arxiv url: http://arxiv.org/abs/2512.23907v1
- Date: Tue, 30 Dec 2025 00:08:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.240906
- Title: Deletion Considered Harmful
- Title(参考訳): 有害と見なされる削除
- Authors: Paul Englefield, Russell Beale,
- Abstract要約: 削除の過負荷を人々がどのように見ているかを理解し、素材の除去をもはや必要としないようにしました。
我々は,51名の知識労働者の行動を調査し,デジタルリソースの整理,提出,検索を目的とした様々な戦術を評価した。
我々の研究では、削除はFiling、Coverage、Ontology、Timelinessといった他の戦術と比べて一貫して過小評価されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In a world of information overload, understanding how we can most effectively manage information is crucial to success. We set out to understand how people view deletion, the removal of material no longer needed: does it help by reducing clutter and improving the signal to noise ratio, or does the effort required to decide to delete something make it not worthwhile? How does deletion relate to other strategies like filing; do people who spend extensive time in filing also prune their materials too? We studied the behaviour of 51 knowledge workers though a series of questionnaires and interviews to evaluate a range of tactics they used aimed at organizing, filing, and retrieving digital resources. Our study reveals that deletion is consistently under-adopted compared to other tactics such as Filing, Coverage, Ontology, and Timeliness. Moreover, the empirical data indicate that deletion is actually detrimental to retrieval success and satisfaction. In this paper, we examine the practice of deletion, review the related literature, and present detailed statistical results and clustering outcomes that underscore its adverse effects.
- Abstract(参考訳): 情報過負荷の世界では、情報をどのように効果的に管理できるかを理解することが成功に不可欠です。
私たちは、人々が削除をどう見ているかを理解するために、素材の除去はもはや不要である:散らかりを減らし、ノイズ比の信号を改善するのに役立つか?
削除は、書類作成のような他の戦略とどのように関係しているのだろうか。
本研究では,51名の知識労働者の行動について調査を行った。
我々の研究では、削除はFiling、Coverage、Ontology、Timelinessといった他の戦術と比べて一貫して過小評価されている。
さらに、実証データから、削除は実際に成功と満足の回復に有害であることが示された。
本稿では,削除の実践を検証し,関連する文献をレビューし,その副作用を裏付ける詳細な統計結果とクラスタリング結果を示す。
関連論文リスト
- Understanding the Dilemma of Unlearning for Large Language Models [50.54260066313032]
Unlearningは、大きな言語モデル(LLM)から特定の知識を取り除こうとしている。
提案するunPactは,帰納的帰属とコントリビューショントラッキングによるアンラーニングのための解釈可能なフレームワークである。
論文 参考訳(メタデータ) (2025-09-29T12:15:19Z) - SoK: Machine Unlearning for Large Language Models [14.88062383081161]
大規模言語モデル(LLM)アンラーニングは機械学習において重要なトピックとなっている。
未学習の意図に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2025-06-10T20:30:39Z) - Extracting Unlearned Information from LLMs with Activation Steering [46.16882599881247]
トレーニング後のモデルからセンシティブな知識を取り除くソリューションとして、アンラーニングが登場した。
本研究では,未学習モデルからの正確な情報検索手法として,アクティベーションステアリングを提案する。
その結果,未学習モデルからの正確な情報検索が可能であることが示され,現在の未学習手法の深刻な脆弱性が浮き彫りにされている。
論文 参考訳(メタデータ) (2024-11-04T21:42:56Z) - Data Deletion for Linear Regression with Noisy SGD [9.784347635082232]
古典線形回帰タスクにおける1ステップ雑音SGDの完全削除点問題を提案する。
本研究は,データ削除の重要性を浮き彫りにして,この分野におけるさらなる研究の必要性を緊急に求めるものである。
論文 参考訳(メタデータ) (2024-10-12T00:20:26Z) - MUSE: Machine Unlearning Six-Way Evaluation for Language Models [109.76505405962783]
言語モデル(LM)は、プライベートおよび著作権のあるコンテンツを含む大量のテキストデータに基づいて訓練される。
総合的な機械学習評価ベンチマークであるMUSEを提案する。
人気のある8つのアンラーニングアルゴリズムがハリー・ポッターの本やニュース記事をいかに効果的に解き放つかをベンチマークする。
論文 参考訳(メタデータ) (2024-07-08T23:47:29Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Evaluating Inexact Unlearning Requires Revisiting Forgetting [14.199668091405064]
IC(Interclass Confusion)と呼ばれる,忘れ度を計測する新しいテストを導入する。
ブラックボックステストであるにもかかわらず、ICは削除セットからの情報がネットワークの初期層まで消去されたかどうかを調べることができる。
ネットワークの最終k層を破滅的に偽造する2つの単純なアンラーニング手法が、従来のアンラーニング方法と異なり、大きな削除セットにうまくスケールできることを実証的に示す。
論文 参考訳(メタデータ) (2022-01-17T21:49:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。