論文の概要: Can we forget how we learned? Doxastic redundancy in iterated belief
revision
- arxiv url: http://arxiv.org/abs/2402.15445v1
- Date: Fri, 23 Feb 2024 17:09:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 13:51:50.860750
- Title: Can we forget how we learned? Doxastic redundancy in iterated belief
revision
- Title(参考訳): 学んだことを忘れられるか?
反復的信念修正におけるドキサスティックな冗長性
- Authors: Paolo Liberatore
- Abstract要約: どのようにして情報が取得されたかは無関係になるかもしれない。
時として、修正が等しくない場合や、それを示すものでさえも、冗長になることがある。
辞書リビジョンの短縮シーケンスは、反復的信念リビジョン状態の最もコンパクトな表現を短縮している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How information was acquired may become irrelevant. An obvious case is when
something is confirmed many times. In terms of iterated belief revision, a
specific revision may become irrelevant in presence of others. Simple
repetitions are an example, but not the only case when this happens. Sometimes,
a revision becomes redundant even in presence of none equal, or even no else
implying it. A necessary and sufficient condition for the redundancy of the
first of a sequence of lexicographic revisions is given. The problem is
coNP-complete even with two propositional revisions only. Complexity is the
same in the Horn case but only with an unbounded number of revisions: it
becomes polynomial with two revisions. Lexicographic revisions are not only
relevant by themselves, but also because sequences of them are the most compact
of the common mechanisms used to represent the state of an iterated revision
process. Shortening sequences of lexicographic revisions is shortening the most
compact representations of iterated belief revision states.
- Abstract(参考訳): 情報獲得の方法が無関係になるかもしれない。
明らかなケースは、何かを何度も確認することです。
反復的信条改正においては、特定の改定が他者の前では無関係になる可能性がある。
単純な繰り返しが例ですが、これが発生した唯一のケースではありません。
時として、修正が等しくない場合や、それを示すものでさえも、冗長になることがある。
辞書修正のシーケンスの第1の冗長性に必要かつ十分な条件が与えられる。
問題は2つの命題修正だけでcoNP完全である。
複雑性はホーンの場合と同じであるが、リビジョンは無制限であり、2つのリビジョンで多項式となる。
レキシカルリビジョンは、それ自体が関係しているだけでなく、反復リビジョンプロセスの状態を表すのに使用される一般的なメカニズムの中で最もコンパクトである。
辞書リビジョンの短縮シーケンスは、反復的信念リビジョン状態の最もコンパクトな表現を短縮している。
関連論文リスト
- SCREWS: A Modular Framework for Reasoning with Revisions [58.698199183147935]
我々は、リビジョンを伴う推論のためのモジュラーフレームワークであるSCREWSを紹介する。
我々は、SCREWSが、共通のフレームワークの下で、いくつかの以前のアプローチを統合することを示す。
我々は,多種多様な推論タスクに基づいて,最先端のLCMを用いてフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-09-20T15:59:54Z) - Representing states in iterated belief revision [0.0]
反復信条改正は、現在の信条に関する情報を必要とする。
ほとんどの文献は、ドクサスティックな状態を改善する方法に集中しており、指数関数的に成長する可能性があることを無視している。
この問題は、ドクサスティック状態を保存する最も一般的な方法として研究されている。
論文 参考訳(メタデータ) (2023-05-16T06:16:23Z) - On the Complexity of Representation Learning in Contextual Linear
Bandits [110.84649234726442]
表現学習は線形帯域よりも根本的に複雑であることを示す。
特に、与えられた表現の集合で学ぶことは、その集合の中で最悪の実現可能な表現で学ぶことよりも決して単純ではない。
論文 参考訳(メタデータ) (2022-12-19T13:08:58Z) - Learning to Revise References for Faithful Summarization [10.795263196202159]
すべてのデータを保持しながら参照品質を改善するための新しい手法を提案する。
支援文に対する合成なしの代替語を構築し、対照的な学習を用いて、不誠実な修正を回避/促進する。
電子健康記録(EHR)と呼ばれるノイズの多い音源から小さなコーパスを抽出し,複数のノートから病院入院を要約する作業を行う。
論文 参考訳(メタデータ) (2022-04-13T18:54:19Z) - On Mixed Iterated Revisions [0.2538209532048866]
例えば、第1のステップは修正、第2のステップは縮小、第3のステップは以前の信念の洗練である。
本項で検討した10人のオペレーターは,辞書修正,改良,重度の離脱の3つにすべて還元可能であることが示されている。
それらのほとんどは、満足のいくチェッカーへの呼び出しの数だけを必要とし、いくつかはさらに簡単です。
論文 参考訳(メタデータ) (2021-04-08T07:34:56Z) - A Theoretical Analysis of the Repetition Problem in Text Generation [55.8184629429347]
我々は、繰り返しの問題が、残念ながら、我々の言語自体の特性によって引き起こされていることを示す。
一つの大きな理由は、その後の単語と同じ単語を高い確率で予測する単語が多すぎるという事実に起因する。
高インフロー問題を軽減するための新しい再バランス符号化手法を提案する。
論文 参考訳(メタデータ) (2020-12-29T08:51:47Z) - When Hearst Is not Enough: Improving Hypernymy Detection from Corpus
with Distributional Models [59.46552488974247]
本稿では,大きなテキストコーパスの助けを借りて,単語 (x, y) 間のis-a関係が存在するかどうかを論じる。
近年の研究では、大規模なハーストペアを抽出して給餌し、目に見えない(x, y)ペアの親和性が緩和された場合、パターンベースのペアの方が優れていることが示唆されている。
本稿では,これらの特定の事例の非無視的存在を初めて定量化し,その場合の分布法がパターンベースの事例を補うのに最適であることを示す。
論文 参考訳(メタデータ) (2020-10-10T08:34:19Z) - Revision by Conditionals: From Hook to Arrow [2.9005223064604078]
本稿では,任意の反復的信念修正演算子を条件付きケースに拡張する「プラグアンドプレイ」手法を提案する。
本手法の柔軟性は, 条件付きリビジョンの結果を, 対応する材料条件付きリビジョンによって決定することによって達成される。
論文 参考訳(メタデータ) (2020-06-29T05:12:30Z) - Consistency of a Recurrent Language Model With Respect to Incomplete
Decoding [67.54760086239514]
逐次言語モデルから無限長のシーケンスを受信する問題について検討する。
不整合に対処する2つの対策として、トップkと核サンプリングの一貫性のある変種と、自己終端の繰り返し言語モデルを提案する。
論文 参考訳(メタデータ) (2020-02-06T19:56:15Z) - Fact-aware Sentence Split and Rephrase with Permutation Invariant
Training [93.66323661321113]
Sentence Split と Rephrase は、複雑な文をいくつかの単純な文に分解し、その意味を保存することを目的としている。
従来の研究では、パラレル文対からのSeq2seq学習によってこの問題に対処する傾向があった。
本稿では,この課題に対するSeq2seq学習における順序分散の効果を検証するために,置換訓練を導入する。
論文 参考訳(メタデータ) (2020-01-16T07:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。