論文の概要: Can we forget how we learned? Doxastic redundancy in iterated belief revision
- arxiv url: http://arxiv.org/abs/2402.15445v2
- Date: Sat, 26 Apr 2025 11:53:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:51.659148
- Title: Can we forget how we learned? Doxastic redundancy in iterated belief revision
- Title(参考訳): 学習の仕方が忘れられるか? 反復的信念修正におけるドクサス的冗長性
- Authors: Paolo Liberatore,
- Abstract要約: 信念獲得エピソードを忘れることは、他の理由から情報損失を生じさせることはない。
各信条の改定の貢献が他者から孤立していないため、それを確認することは明らかではない。
複数の反復信条修正演算子に対して、忘れた情報を減らすかどうかをチェックするアルゴリズムが与えられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Forgetting a belief acquisition episode may not cause information loss because of the others. Checking whether it does is not obvious, as the contribution of each belief revision is not isolated from the others, and the same information may be given not directly but by deduction. An algorithm for checking whether forgetting reduces information is given for a number of iterated belief revision operators: lexicographic, natural, severe, plain severe, moderate severe, restrained, very radical and full meet revisions. It may take exponential time in the worst case, which is expected given that the problem is coNP-hard, even in the Horn restriction. It is in coNP for homogeneous sequences of lexicographic revisions.
- Abstract(参考訳): 信念獲得エピソードを忘れることは、他の理由から情報損失を生じさせることはない。
それぞれの信念の修正の貢献が他者から切り離されず、同じ情報が直接ではなく推論によって与えられるため、その事実を確認することは明らかではない。
多くの反復的信条修正作業者(語彙、自然、重度、軽度、中等度、重度、抑止、非常に急進的、全会一致)に対して、情報を忘れるかどうかを確認するアルゴリズムが与えられる。
最悪の場合、指数関数的な時間はかかるが、ホーンの制限下であっても、問題はcoNPハードであることを考えると、予想される。
coNP はレキソグラフィーリビジョンの同種配列である。
関連論文リスト
- On the redundancy of short and heterogeneous sequences of belief revisions [0.0]
特定の信念修正エピソードを忘れることは、他のリビジョンが同じ情報を提供したり、推論を許したりするため、情報を消去することができない。
任意の2つのレキソグラフィーリビジョンのシーケンスや、任意の長いレキソグラフィーリビジョンのために、coNP-hardが証明された。
論文 参考訳(メタデータ) (2025-04-18T10:12:04Z) - Causal Layering via Conditional Entropy [85.01590667411956]
因果発見は、生成した観測可能なデータから観測されていない因果グラフに関する情報を回収することを目的としている。
我々は、条件付きエントロピーオラクルを介してデータにアクセスすることによって、グラフの階層化を回復する方法を提供する。
論文 参考訳(メタデータ) (2024-01-19T05:18:28Z) - SCREWS: A Modular Framework for Reasoning with Revisions [58.698199183147935]
我々は、リビジョンを伴う推論のためのモジュラーフレームワークであるSCREWSを紹介する。
我々は、SCREWSが、共通のフレームワークの下で、いくつかの以前のアプローチを統合することを示す。
我々は,多種多様な推論タスクに基づいて,最先端のLCMを用いてフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-09-20T15:59:54Z) - Extending Path-Dependent NJ-ODEs to Noisy Observations and a Dependent
Observation Framework [6.404122934568861]
ノイズの多い観測を処理できる新しい損失関数を導入し、これまで使用されていた損失関数が一貫した推定値に導かなかった理由を説明する。
論文 参考訳(メタデータ) (2023-07-24T22:01:22Z) - Representing states in iterated belief revision [0.0]
反復信条改正は、現在の信条に関する情報を必要とする。
ほとんどの文献は、ドクサスティックな状態を改善する方法に集中しており、指数関数的に成長する可能性があることを無視している。
この問題は、ドクサスティック状態を保存する最も一般的な方法として研究されている。
論文 参考訳(メタデータ) (2023-05-16T06:16:23Z) - On the Complexity of Representation Learning in Contextual Linear
Bandits [110.84649234726442]
表現学習は線形帯域よりも根本的に複雑であることを示す。
特に、与えられた表現の集合で学ぶことは、その集合の中で最悪の実現可能な表現で学ぶことよりも決して単純ではない。
論文 参考訳(メタデータ) (2022-12-19T13:08:58Z) - What's the Harm? Sharp Bounds on the Fraction Negatively Affected by
Treatment [58.442274475425144]
我々は,これらの関数がどの程度の速さで学習されたかに関わらず,効率の良い頑健な推論アルゴリズムを開発した。
シミュレーション研究および失業者のキャリアカウンセリングのケーススタディにおいて,本手法を実証する。
論文 参考訳(メタデータ) (2022-05-20T17:36:33Z) - Learning to Revise References for Faithful Summarization [10.795263196202159]
すべてのデータを保持しながら参照品質を改善するための新しい手法を提案する。
支援文に対する合成なしの代替語を構築し、対照的な学習を用いて、不誠実な修正を回避/促進する。
電子健康記録(EHR)と呼ばれるノイズの多い音源から小さなコーパスを抽出し,複数のノートから病院入院を要約する作業を行う。
論文 参考訳(メタデータ) (2022-04-13T18:54:19Z) - Nested Counterfactual Identification from Arbitrary Surrogate
Experiments [95.48089725859298]
観測と実験の任意の組み合わせからネスト反事実の同定について検討した。
具体的には、任意のネストされた反事実を非ネストされたものへ写像できる反ファクト的非ネスト定理(英語版)(CUT)を証明する。
論文 参考訳(メタデータ) (2021-07-07T12:51:04Z) - On Mixed Iterated Revisions [0.2538209532048866]
例えば、第1のステップは修正、第2のステップは縮小、第3のステップは以前の信念の洗練である。
本項で検討した10人のオペレーターは,辞書修正,改良,重度の離脱の3つにすべて還元可能であることが示されている。
それらのほとんどは、満足のいくチェッカーへの呼び出しの数だけを必要とし、いくつかはさらに簡単です。
論文 参考訳(メタデータ) (2021-04-08T07:34:56Z) - A Theoretical Analysis of the Repetition Problem in Text Generation [55.8184629429347]
我々は、繰り返しの問題が、残念ながら、我々の言語自体の特性によって引き起こされていることを示す。
一つの大きな理由は、その後の単語と同じ単語を高い確率で予測する単語が多すぎるという事実に起因する。
高インフロー問題を軽減するための新しい再バランス符号化手法を提案する。
論文 参考訳(メタデータ) (2020-12-29T08:51:47Z) - A Weaker Faithfulness Assumption based on Triple Interactions [89.59955143854556]
より弱い仮定として, 2$-adjacency faithfulness を提案します。
より弱い仮定の下で適用可能な因果発見のための音方向規則を提案する。
論文 参考訳(メタデータ) (2020-10-27T13:04:08Z) - When Hearst Is not Enough: Improving Hypernymy Detection from Corpus
with Distributional Models [59.46552488974247]
本稿では,大きなテキストコーパスの助けを借りて,単語 (x, y) 間のis-a関係が存在するかどうかを論じる。
近年の研究では、大規模なハーストペアを抽出して給餌し、目に見えない(x, y)ペアの親和性が緩和された場合、パターンベースのペアの方が優れていることが示唆されている。
本稿では,これらの特定の事例の非無視的存在を初めて定量化し,その場合の分布法がパターンベースの事例を補うのに最適であることを示す。
論文 参考訳(メタデータ) (2020-10-10T08:34:19Z) - Revision by Conditionals: From Hook to Arrow [2.9005223064604078]
本稿では,任意の反復的信念修正演算子を条件付きケースに拡張する「プラグアンドプレイ」手法を提案する。
本手法の柔軟性は, 条件付きリビジョンの結果を, 対応する材料条件付きリビジョンによって決定することによって達成される。
論文 参考訳(メタデータ) (2020-06-29T05:12:30Z) - Optimal Change-Point Detection with Training Sequences in the Large and
Moderate Deviations Regimes [72.68201611113673]
本稿では,情報理論の観点から,新しいオフライン変化点検出問題について検討する。
基礎となる事前および変更後分布の知識は分かっておらず、利用可能なトレーニングシーケンスからのみ学習できると仮定する。
論文 参考訳(メタデータ) (2020-03-13T23:39:40Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z) - Fact-aware Sentence Split and Rephrase with Permutation Invariant
Training [93.66323661321113]
Sentence Split と Rephrase は、複雑な文をいくつかの単純な文に分解し、その意味を保存することを目的としている。
従来の研究では、パラレル文対からのSeq2seq学習によってこの問題に対処する傾向があった。
本稿では,この課題に対するSeq2seq学習における順序分散の効果を検証するために,置換訓練を導入する。
論文 参考訳(メタデータ) (2020-01-16T07:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。