論文の概要: Can we forget how we learned? Representing states in iterated belief
revision}
- arxiv url: http://arxiv.org/abs/2305.09200v1
- Date: Tue, 16 May 2023 06:16:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 16:15:22.798015
- Title: Can we forget how we learned? Representing states in iterated belief
revision}
- Title(参考訳): 学んだことを忘れられるか?
反復信条改正における国家の表現
- Authors: Paolo Liberatore
- Abstract要約: 辞書リビジョンの歴史は、任意の歴史書き直しを伴う大きさの他の考慮された表現よりも効率的である。
マイナーな技術的結果は、ホーン公式が別のホーン公式の否定と等価であるかどうかを判定するホーン時アルゴリズムである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The three most common representations of states in iterated belief revision
are compared: explicit, by levels and by history. The first is a connected
preorder between models, the second is a list of formulae representing
equivalence classes, the third is the sequence of the previous revisions. The
latter depends on the revision semantics and on history rewriting, and the
latter depends on the allowed rewritings. All mechanisms represent all possible
states. A rewritten history of lexicographic revision is more efficient than
the other considered representations in terms of size with arbitrary history
rewritings. Establishing the redundancy of such a history is a mild rewriting.
It is coNP-complete in the general case, and is hard even on histories of two
revisions or revisions of arbitrary length of Horn formulae, and is polynomial
on histories of two Horn formulae. A minor technical result is a
polynomial-time algorithm for establishing whether a Horn formula is equivalent
to the negation of another Horn formula.
- Abstract(参考訳): 反復的信念修正における国家の最も一般的な3つの表現は、明示的、レベル別、歴史別である。
第一はモデル間の連結事前順序であり、第二は同値類を表す式のリストであり、第三は前のリビジョンのシーケンスである。
後者はリビジョンのセマンティクスと履歴の書き直しに依存し、後者は許容された書き直しに依存する。
全ての機構は全ての可能な状態を表す。
辞書改訂の書き直し履歴は、任意の歴史書き直しを伴う大きさの他の考慮された表現よりも効率的である。
このような歴史の冗長性を確立することは軽微な書き直しである。
一般の場合では完備であり、角の任意の長さの2つの修正や修正の履歴にも難解であり、2つの角公式の履歴の多項式である。
マイナーな技術的結果は、ホーン公式が他のホーン公式の否定と等価かどうかを決定する多項式時間アルゴリズムである。
関連論文リスト
- Simplifying the Theory on Over-Smoothing [0.27195102129095]
グラフの畳み込みは過剰な平滑化を引き起こす。
本稿では,過度な平滑化がパワーの特殊な場合であることを示すことによって,これらの方向を整列させようとする。
論文 参考訳(メタデータ) (2024-07-16T16:00:42Z) - Skews in the Phenomenon Space Hinder Generalization in Text-to-Image Generation [59.138470433237615]
本稿では,関係学習用データセットの言語的スキューと視覚的スクリューの両方を定量化する統計指標を提案する。
系統的に制御されたメトリクスは、一般化性能を強く予測できることを示す。
この研究は、データの多様性やバランスを向上し、絶対的なサイズをスケールアップするための重要な方向を示します。
論文 参考訳(メタデータ) (2024-03-25T03:18:39Z) - On the structure of Completely Reducible States [0.0]
バイパルタイト状態に対する完全な再現性は、内外絡み理論のいくつかの定理を証明するために用いられた。
これまでのところ、この性質を持つことが証明されたのは3種類のバイパルタイト状態のみである。
論文 参考訳(メタデータ) (2024-03-08T16:55:57Z) - Can we forget how we learned? Doxastic redundancy in iterated belief
revision [0.0]
どのようにして情報が取得されたかは無関係になるかもしれない。
時として、修正が等しくない場合や、それを示すものでさえも、冗長になることがある。
辞書リビジョンの短縮シーケンスは、反復的信念リビジョン状態の最もコンパクトな表現を短縮している。
論文 参考訳(メタデータ) (2024-02-23T17:09:04Z) - Entity Disambiguation with Entity Definitions [50.01142092276296]
ローカルモデルはEntity Disambiguation (ED)で最近驚くべきパフォーマンスを達成した
それまでの研究は、各候補者のテキスト表現として、ウィキペディアのタイトルのみを使うことに限られていた。
本稿では、この制限に対処し、より表現力のあるテキスト表現がそれを緩和できる範囲について検討する。
提案する6つのベンチマークのうち2つに新たな技術の現状を報告し,未知のパターンに対する一般化能力を強く改善する。
論文 参考訳(メタデータ) (2022-10-11T17:46:28Z) - The quantum commuting model (Ia): The CHSH game and other examples:
Uniqueness of optimal states [91.3755431537592]
2つのプレイヤーゲームに対する普遍代数上の状態空間として、量子交換相関の普遍的記述を用いる。
この共通代数にCHSHゲームが一つの最適状態を残していることが分かる。
論文 参考訳(メタデータ) (2022-10-07T17:38:31Z) - Latent Topology Induction for Understanding Contextualized
Representations [84.7918739062235]
本研究では,文脈的埋め込みの表現空間について検討し,大規模言語モデルの隠れトポロジについて考察する。
文脈化表現の言語特性を要約した潜在状態のネットワークが存在することを示す。
論文 参考訳(メタデータ) (2022-06-03T11:22:48Z) - On the Generalization of Representations in Reinforcement Learning [32.303656009679045]
特定の状態表現から生じる一般化誤差に関する情報的境界を提供する。
我々の境界は任意の状態表現に適用され、よく一般化する表現とよく近似する表現の間の自然な緊張を定量化する。
論文 参考訳(メタデータ) (2022-03-01T15:22:09Z) - Image Collation: Matching illustrations in manuscripts [76.21388548732284]
図形照合の課題と,大規模な注釈付き公開データセットを導入して,ソリューションの評価を行う。
本研究は,本課題における美術類似度測定の実態を分析し,簡単な場合では成功したが,大規模な写本に苦慮していることを示す。
サイクル一貫性の対応を利用して,大幅な性能向上が期待できることを示す。
論文 参考訳(メタデータ) (2021-08-18T12:12:14Z) - Towards Better Laplacian Representation in Reinforcement Learning with
Generalized Graph Drawing [88.22538267731733]
ラプラシアン表現は、状態に対する簡潔で情報的な表現を提供する。
近年の研究はスペクトルグラフ描画の目的を最小化することを提案しているが、固有ベクトル以外の大域最小化器は無限に多数存在する。
学習したラプラシア表現がより探索的な選択肢とより良い報酬形成をもたらすことを示す。
論文 参考訳(メタデータ) (2021-07-12T16:14:02Z) - Compact Belief State Representation for Task Planning [8.521089975868131]
我々は、カルデシアン積に基づく新しい信念状態表現と、信念のサブステートに対するユニオン操作を開発する。
これら2つの演算と単一変数割り当てノードは、Breief State (AOBS)のAnd-Or有向非巡回グラフを形成する
AOBS表現は、完全な信念状態よりもはるかにコンパクトであるだけでなく、ほとんどの場合においてバイナリ決定ダイアグラムよりも優れたスケールを示す。
論文 参考訳(メタデータ) (2020-08-21T09:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。