論文の概要: Belief Change based on Knowledge Measures
- arxiv url: http://arxiv.org/abs/2403.10502v1
- Date: Fri, 15 Mar 2024 17:40:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 16:01:36.212774
- Title: Belief Change based on Knowledge Measures
- Title(参考訳): 知識尺度に基づく信念の変化
- Authors: Umberto Straccia, Giovanni Casini,
- Abstract要約: 知識尺度(KM)に基づく新しい量的信念変化フレームワークを提案する。
我々の貢献は、(i) [1] が特別の場合である KM に対する一般的な情報理論的アプローチ、(ii) いわゆる AGM の仮定を満たす KM ベースの BC 作用素、(iii) AGM を満足する BC 作用素を KM ベースの BC 作用素として特徴づけることである。
- 参考スコア(独自算出の注目度): 1.6574413179773761
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge Measures (KMs) aim at quantifying the amount of knowledge/information that a knowledge base carries. On the other hand, Belief Change (BC) is the process of changing beliefs (in our case, in terms of contraction, expansion and revision) taking into account a new piece of knowledge, which possibly may be in contradiction with the current belief. We propose a new quantitative BC framework that is based on KMs by defining belief change operators that try to minimise, from an information-theoretic point of view, the surprise that the changed belief carries. To this end, we introduce the principle of minimal surprise. In particular, our contributions are (i) a general information-theoretic approach to KMs for which [1] is a special case; (ii) KM-based BC operators that satisfy the so-called AGM postulates; and (iii) a characterisation of any BC operator that satisfies the AGM postulates as a KM-based BC operator, i.e., any BC operator satisfying the AGM postulates can be encoded within our quantitative BC framework. We also introduce quantitative measures that account for the information loss of contraction, information gain of expansion and information change of revision. We also give a succinct look into the problem of iterated revision, which deals with the application of a sequence of revision operations in our framework, and also illustrate how one may build from our KM-based contraction operator also one not satisfying the (in)famous recovery postulate, by focusing on the so-called severe withdrawal model as an illustrative example.
- Abstract(参考訳): 知識尺度 (KMs) は、知識基盤が持つ知識/情報量の定量化を目的としている。
一方、BC(Breief Change)は、新しい知識を考慮に入れた信念(この場合、契約、拡張、改訂)を変える過程であり、おそらく現在の信念と矛盾している。
我々は、情報理論の観点から、変化した信念が持つ驚きを最小化しようとする信念変化演算子を定義することで、KMsに基づく新しい量的BCフレームワークを提案する。
この目的のために、最小の驚きの原理を導入する。
特に私たちの貢献は
i) [1] が特別の場合である KM に対する一般情報理論的アプローチ
(二)いわゆるAGM仮定を満たすKMに基づくBC演算子及び
3) AGM を KM ベースの BC 演算子として仮定する BC 演算子の特徴付け。
また,契約情報の喪失,拡張情報獲得,リビジョン情報変更を考慮に入れた量的尺度も導入する。
また,本フレームワークにおける一連のリビジョン操作の適用に関する反復的リビジョンの問題を簡潔に考察するとともに,いわゆる厳格なリカバリモデルに着目して,我々のKMベースのリカバリ演算子から構築したリカバリの仮定を満たさないリカバリ演算子を例に挙げる。
関連論文リスト
- Eliminating Information Leakage in Hard Concept Bottleneck Models with
Supervised, Hierarchical Concept Learning [17.982131928413096]
概念ボトルネックモデル(Concept Bottleneck Models、CBM)は、人間の理解できない概念で特徴やラベルをブリッジすることで、解釈可能で介入可能な予測を提供することを目的としている。
CBMは情報漏洩に悩まされ、概念以外の意図しない情報がその後のラベル予測にリークされる。
本稿では,CBMの新たなパラダイム,すなわちSupCBMを提案する。
論文 参考訳(メタデータ) (2024-02-03T03:50:58Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Knowledge Editing for Large Language Models: A Survey [51.01368551235289]
大規模言語モデル(LLM)の大きな欠点の1つは、事前学習に要する計算コストである。
知識に基づくモデル編集(KME)が注目を集めており、特定の知識を組み込むためにLLMを正確に修正することを目的としている。
論文 参考訳(メタデータ) (2023-10-24T22:18:13Z) - From Chaos to Clarity: Claim Normalization to Empower Fact-Checking [57.024192702939736]
Claim Normalization(別名 ClaimNorm)は、複雑でノイズの多いソーシャルメディア投稿を、より単純で分かりやすい形式に分解することを目的としている。
本稿では,チェーン・オブ・ソートとクレーム・チェック・バシネス推定を利用した先駆的アプローチであるCACNを提案する。
実験により, CACNは様々な評価尺度において, いくつかの基準値を上回る性能を示した。
論文 参考訳(メタデータ) (2023-10-22T16:07:06Z) - Knowledge Graph Context-Enhanced Diversified Recommendation [53.3142545812349]
本研究では,知識グラフ(KG)の複雑な文脈における多角化RecSys領域について検討する。
私たちのコントリビューションには、革新的なメトリック、エンティティカバレッジ、KGドメイン内の多様性を効果的に定量化するリレーショナルカバレッジの導入が含まれています。
そこで本稿では,文脈整合性を維持しつつ,KG項目の埋め込みを符号化するCAU(Conditional Alignment and Uniformity)という新しい手法を紹介する。
論文 参考訳(メタデータ) (2023-10-20T03:18:57Z) - General Schemes for Quantum Entanglement and Steering Detection [0.0]
任意の測度$boldsymbolX$を用いて絡み合いを検出する一般的な方法を提案する。
エンタングルメントとステアリングの検出において重要な役割を果たす測定軌道の概念を紹介する。
論文 参考訳(メタデータ) (2022-08-17T16:33:31Z) - KAT: A Knowledge Augmented Transformer for Vision-and-Language [56.716531169609915]
我々は、OK-VQAのオープンドメインマルチモーダルタスクにおいて、最先端の強力な結果をもたらす新しいモデルである知識拡張トランスフォーマー(KAT)を提案する。
提案手法は,エンド・ツー・エンドのエンコーダ・デコーダアーキテクチャにおいて暗黙的かつ明示的な知識を統合しつつ,回答生成時に両知識源を共同で推論する。
我々の分析では、モデル予測の解釈可能性の向上に、明示的な知識統合のさらなる利点が見られる。
論文 参考訳(メタデータ) (2021-12-16T04:37:10Z) - Surprise Minimization Revision Operators [7.99536002595393]
本稿では, 先行する信念に関して, 相対的サプライズ(相対的サプライズ)とよばれるサプライズ尺度を提案する。
そこで我々は,AGMモールドの直感的な仮定を用いて定義したサプライズ最小化修正演算子を特徴付ける。
論文 参考訳(メタデータ) (2021-11-21T20:38:50Z) - A Bayesian Framework for Information-Theoretic Probing [51.98576673620385]
我々は、探索は相互情報を近似するものとみなすべきであると論じる。
これは、表現が元の文とターゲットタスクに関する全く同じ情報をエンコードしているというかなり直感的な結論を導いた。
本稿では,ベイズ的相互情報(Bayesian mutual information)と呼ぶものを測定するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-08T18:08:36Z) - Multi-view Inference for Relation Extraction with Uncertain Knowledge [8.064148591925932]
本論文では,未知の知識を利用して関係抽出を改善することを提案する。
対象エンティティが概念にどの程度属しているかを示す不確定なkgであるprobaseを紹介する。
次に、ローカルコンテキストとグローバル知識を体系的に統合する新しい多視点推論フレームワークを設計する。
論文 参考訳(メタデータ) (2021-04-28T05:56:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。