論文の概要: Who is Afraid of Minimal Revision?
- arxiv url: http://arxiv.org/abs/2511.22386v1
- Date: Thu, 27 Nov 2025 12:15:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.557723
- Title: Who is Afraid of Minimal Revision?
- Title(参考訳): 最小限の修正を控えているのは誰か?
- Authors: Edoardo Baccini, Zoé Christoff, Nina Gierasimczuk, Rineke Verbrugge,
- Abstract要約: 最小限のリビジョンは、幅広い状況において依然として学習方法として成功していることを示す。
我々は、最小限の修正によって学習できる事前の妥当性割り当てを特徴付ける。
誤った情報から学ぶとき、私たちの結果がまだすべて残っているわけではないことを、私たちは示しています。
- 参考スコア(独自算出の注目度): 1.396448286983864
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The principle of minimal change in belief revision theory requires that, when accepting new information, one keeps one's belief state as close to the initial belief state as possible. This is precisely what the method known as minimal revision does. However, unlike less conservative belief revision methods, minimal revision falls short in learning power: It cannot learn everything that can be learned by other learning methods. We begin by showing that, despite this limitation, minimal revision is still a successful learning method in a wide range of situations. Firstly, it can learn any problem that is finitely identifiable. Secondly, it can learn with positive and negative data, as long as one considers finitely many possibilities. We then characterize the prior plausibility assignments (over finitely many possibilities) that enable one to learn via minimal revision, and do the same for conditioning and lexicographic upgrade. Finally, we show that not all of our results still hold when learning from possibly erroneous information.
- Abstract(参考訳): 信念修正理論における最小限の変更の原則は、新しい情報を受け入れる際には、自分の信念状態を可能な限り最初の信念状態に近づけることである。
これが、最小限の修正と呼ばれる方法である。
しかし、保守的でない信念の修正方法とは異なり、最小限の修正は学習力に欠ける。
この制限にもかかわらず、最小限の修正は、幅広い状況における学習方法としてまだ成功していることを示すことから始めます。
まず、有限に特定可能なあらゆる問題を学ぶことができる。
第二に、有限個の可能性を考える限り、正および負のデータで学習することができる。
次に、最小限のリビジョンで学習できる事前の可視性割り当て(有限以上の可能性)を特徴付けるとともに、条件付けやレキソグラフィーのアップグレードでも同様に行う。
最後に、おそらく誤った情報から学ぶ際に、私たちの結果がまだすべて残っているわけではないことを示します。
関連論文リスト
- Existing Large Language Model Unlearning Evaluations Are Inconclusive [105.55899615056573]
いくつかの評価では、モデルにかなりの新しい情報を導入し、真の未学習のパフォーマンスを隠蔽する可能性があることを示す。
評価結果はタスクによって大きく異なることを示し、現在の評価ルーチンの一般化性を損なうことを示した。
今後の未学習評価には,情報注入の最小化とタスク認識のダウンストリームという2つの原則を提案する。
論文 参考訳(メタデータ) (2025-05-31T19:43:00Z) - From Dormant to Deleted: Tamper-Resistant Unlearning Through Weight-Space Regularization [46.78723722220735]
LLMの最近の未学習手法は再学習攻撃に対して脆弱である。
学習後50%程度から100%近くまで、リザーブセットだけを微調整することで、忘れたセットの精度が回復できるという驚くべき発見をしました。
本稿では,再学習攻撃に対する最先端の耐性を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-05-28T12:53:08Z) - Outdated Issue Aware Decoding for Reasoning Questions on Edited Knowledge [93.54427119091174]
本稿では,従来のISsueを意識した復号化手法を提案する。
元のモデルと編集されたモデルとの確率分布の差を捉える。
我々は、古くなった問題を緩和するために、編集されたモデルにおけるトークン予測の違いを増幅する。
論文 参考訳(メタデータ) (2024-06-05T03:00:15Z) - Human-Aware Belief Revision: A Cognitively Inspired Framework for Explanation-Guided Revision of Human Models [4.2356833681644055]
我々は,人間の信念のリビジョンダイナミクスをモデル化するための認知にインスパイアされたフレームワークであるHuman-Aware Belief Revisionを紹介する。
実世界のシナリオ下で,我々の枠組みを実証的に評価するために,2つの人体実験を行った。
我々の発見は、我々の仮説を支持し、不整合を解決する際に人々が採用する戦略に関する洞察を与え、より効果的な人間対応AIシステムを開発するためのガイダンスを提供する。
論文 参考訳(メタデータ) (2024-05-29T16:20:51Z) - Natural revision is contingently-conditionalized revision [0.0]
自然の修正はとても自然なように思える。
しかし、いくつかの反例は間違っていることを示している。
これは、ある場合には正しく、ある場合には間違っている。
論文 参考訳(メタデータ) (2023-09-22T06:52:30Z) - Imitating Past Successes can be Very Suboptimal [145.70788608016755]
既存の結果条件付き模倣学習手法が必ずしもポリシーを改善できないことを示す。
簡単な修正が、政策改善を保証する方法をもたらすことを示す。
我々の目的は、全く新しい方法を開発するのではなく、成果条件付き模倣学習の変種が報酬を最大化するためにどのように使用できるかを説明することである。
論文 参考訳(メタデータ) (2022-06-07T15:13:43Z) - Universal Online Learning with Unbounded Losses: Memory Is All You Need [10.839359285994636]
与えられた学習規則は、長期平均損失が低い場合、楽観的に普遍的であると言われる。
ハンケは、すべての無境界損失に対して、普遍的な学習を認める過程の族が、正確には有限個の異なる値を持つものであるかどうかというオープンな問題として提起された。
結果として、これは非有界な損失に対して楽観的に普遍的な学習規則を劇的にシンプルに定式化する。
論文 参考訳(メタデータ) (2022-01-21T22:03:18Z) - Relational Experience Replay: Continual Learning by Adaptively Tuning
Task-wise Relationship [54.73817402934303]
本稿では,2段階の学習フレームワークである経験連続再生(ERR)を提案する。
ERRは、すべてのベースラインの性能を一貫して改善し、現在の最先端の手法を超えることができる。
論文 参考訳(メタデータ) (2021-12-31T12:05:22Z) - Partial Is Better Than All: Revisiting Fine-tuning Strategy for Few-shot
Learning [76.98364915566292]
一般的なプラクティスは、まずベースセット上でモデルをトレーニングし、その後、微調整によって新しいクラスに移行することである。
本稿では,基本モデル内の特定の層を凍結あるいは微調整することにより,部分的知識の伝達を提案する。
提案手法の有効性を実証するために, CUB と mini-ImageNet の広範な実験を行った。
論文 参考訳(メタデータ) (2021-02-08T03:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。