論文の概要: On Mixed Iterated Revisions
- arxiv url: http://arxiv.org/abs/2104.03571v1
- Date: Thu, 8 Apr 2021 07:34:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 13:10:29.973564
- Title: On Mixed Iterated Revisions
- Title(参考訳): 混合反復修正について
- Authors: Paolo Liberatore
- Abstract要約: 例えば、第1のステップは修正、第2のステップは縮小、第3のステップは以前の信念の洗練である。
本項で検討した10人のオペレーターは,辞書修正,改良,重度の離脱の3つにすべて還元可能であることが示されている。
それらのほとんどは、満足のいくチェッカーへの呼び出しの数だけを必要とし、いくつかはさらに簡単です。
- 参考スコア(独自算出の注目度): 0.2538209532048866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Several forms of iterable belief change exist, differing in the kind of
change and its strength: some operators introduce formulae, others remove them;
some add formulae unconditionally, others only as additions to the previous
beliefs; some only relative to the current situation, others in all possible
cases. A sequence of changes may involve several of them: for example, the
first step is a revision, the second a contraction and the third a refinement
of the previous beliefs. The ten operators considered in this article are shown
to be all reducible to three: lexicographic revision, refinement and severe
withdrawal. In turn, these three can be expressed in terms of lexicographic
revision at the cost of restructuring the sequence. This restructuring needs
not to be done explicitly: an algorithm that works on the original sequence is
shown. The complexity of mixed sequences of belief change operators is also
analyzed. Most of them require only a polynomial number of calls to a
satisfiability checker, some are even easier.
- Abstract(参考訳): 数種類の反復的信念の変化があり、変化の種類や強さが異なる: ある作用素は公式を導入し、ある作用素はそれらを削除し、ある作用素は無条件に公式を付加する。
例えば、第1のステップは修正、第2のステップは縮小、第3のステップは以前の信念の洗練である。
本項で検討した10人のオペレーターは,辞書修正,改良,重度の離脱の3つにすべて還元可能であることが示されている。
逆に、これらの3つは、配列を再構成するコストで、レキソグラフィーのリビジョンで表現することができる。
この再構成は明示的に行う必要はなく、元のシーケンスで動作するアルゴリズムが示される。
信念変化演算子の混合シーケンスの複雑さも分析される。
その多くは、満足度チェッカーへの多項式数だけを必要とするが、もっと簡単なものもある。
関連論文リスト
- Generating Counterfactual Explanations Using Cardinality Constraints [0.0]
本論文では, 原例と異なる特徴の数を制限するために, 反ファクト生成に基数制約を明示的に付加することを提案する。
これにより、より解釈が容易で不安定な対策が提供される。
論文 参考訳(メタデータ) (2024-04-11T06:33:19Z) - Can we forget how we learned? Doxastic redundancy in iterated belief
revision [0.0]
どのようにして情報が取得されたかは無関係になるかもしれない。
時として、修正が等しくない場合や、それを示すものでさえも、冗長になることがある。
辞書リビジョンの短縮シーケンスは、反復的信念リビジョン状態の最もコンパクトな表現を短縮している。
論文 参考訳(メタデータ) (2024-02-23T17:09:04Z) - SCREWS: A Modular Framework for Reasoning with Revisions [58.698199183147935]
我々は、リビジョンを伴う推論のためのモジュラーフレームワークであるSCREWSを紹介する。
我々は、SCREWSが、共通のフレームワークの下で、いくつかの以前のアプローチを統合することを示す。
我々は,多種多様な推論タスクに基づいて,最先端のLCMを用いてフレームワークの評価を行った。
論文 参考訳(メタデータ) (2023-09-20T15:59:54Z) - A Simplified Expression for Quantum Fidelity [0.0]
この研究は、表現が形式に書き換えられるという新しいエレガントな証明を示している。
より単純な式は、その後、最も古い方法よりも計算的に効率的であることが示される定式化をもたらす。
論文 参考訳(メタデータ) (2023-09-19T12:19:12Z) - Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - On Limited Non-Prioritised Belief Revision Operators with Dynamic Scope [2.7071541526963805]
本稿では,制限された世界に対する全プレオーダーで表現可能なリビジョンである動的リビジョンの概念を紹介する。
信条変更作業者に対しては、改訂の成功をもたらす信条からなる範囲を考察する。
単文閉包と解離完全性を満たす各集合に対して、この集合がスコープとして設定された信念と合わさった動的制限付きリビジョンが存在することを示す。
論文 参考訳(メタデータ) (2021-08-17T17:22:29Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z) - Fact-aware Sentence Split and Rephrase with Permutation Invariant
Training [93.66323661321113]
Sentence Split と Rephrase は、複雑な文をいくつかの単純な文に分解し、その意味を保存することを目的としている。
従来の研究では、パラレル文対からのSeq2seq学習によってこの問題に対処する傾向があった。
本稿では,この課題に対するSeq2seq学習における順序分散の効果を検証するために,置換訓練を導入する。
論文 参考訳(メタデータ) (2020-01-16T07:30:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。