論文の概要: Comparing and extending the use of defeasible argumentation with
quantitative data in real-world contexts
- arxiv url: http://arxiv.org/abs/2206.13959v1
- Date: Tue, 28 Jun 2022 12:28:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 13:39:14.812301
- Title: Comparing and extending the use of defeasible argumentation with
quantitative data in real-world contexts
- Title(参考訳): 実世界の文脈における難解な議論と量的データの比較と拡張
- Authors: Lucas Rizzo and Luca Longo
- Abstract要約: 非単調な形式主義(英: non-monotonic formalism)は、新しい証拠に照らして、前提から以前の結論や主張を撤回できる形式である。
本研究は, 難解な議論の活用を通じて知識の体系に寄与し, 類似したアプローチとの比較を行った。
- 参考スコア(独自算出の注目度): 5.482532589225552
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dealing with uncertain, contradicting, and ambiguous information is still a
central issue in Artificial Intelligence (AI). As a result, many formalisms
have been proposed or adapted so as to consider non-monotonicity, with only a
limited number of works and researchers performing any sort of comparison among
them. A non-monotonic formalism is one that allows the retraction of previous
conclusions or claims, from premises, in light of new evidence, offering some
desirable flexibility when dealing with uncertainty. This research article
focuses on evaluating the inferential capacity of defeasible argumentation, a
formalism particularly envisioned for modelling non-monotonic reasoning. In
addition to this, fuzzy reasoning and expert systems, extended for handling
non-monotonicity of reasoning, are selected and employed as baselines, due to
their vast and accepted use within the AI community. Computational trust was
selected as the domain of application of such models. Trust is an ill-defined
construct, hence, reasoning applied to the inference of trust can be seen as
non-monotonic. Inference models were designed to assign trust scalars to
editors of the Wikipedia project. In particular, argument-based models
demonstrated more robustness than those built upon the baselines despite the
knowledge bases or datasets employed. This study contributes to the body of
knowledge through the exploitation of defeasible argumentation and its
comparison to similar approaches. The practical use of such approaches coupled
with a modular design that facilitates similar experiments was exemplified and
their respective implementations made publicly available on GitHub [120, 121].
This work adds to previous works, empirically enhancing the generalisability of
defeasible argumentation as a compelling approach to reason with quantitative
data and uncertain knowledge.
- Abstract(参考訳): 不確実、矛盾、曖昧な情報を扱うことは、人工知能(AI)の中心的な問題である。
結果として、非単調性を考えるために多くの形式主義が提案され、適応され、限られた数の著作と研究者しかそれらの比較を行なわなかった。
非単調な形式主義は、新しい証拠に照らして、前提から以前の結論や主張を取り除き、不確実性を扱う際に望ましい柔軟性を提供するものである。
本稿では,非単調な推論をモデル化する上で特に想定される形式主義であるデファシブル議論の推論能力を評価することに焦点を当てる。
これに加えて、ファジィ推論とエキスパートシステムは、推論の非単調性を扱うために拡張され、AIコミュニティ内で広く受け入れられた使用のために、ベースラインとして選択され、使用される。
このようなモデルの応用分野として計算信頼が選ばれた。
信頼は不明確な構成であるため、信頼の推論に適用される推論は非単調と見なすことができる。
推論モデルはウィキペディアプロジェクトの編集者に信頼スカラーを割り当てるために設計された。
特に、議論ベースのモデルは、知識ベースやデータセットが採用されているにもかかわらず、ベースライン上に構築されたモデルよりも堅牢性を示した。
本研究は,難解な議論の活用と類似のアプローチとの比較を通じて,知識の体系に寄与する。
このようなアプローチと、同様の実験を容易にするモジュール設計の実践的利用が実証され、それぞれの実装がGitHub [120, 121]で公開されている。
この研究は、量的データと不確実な知識を持つ推論に対する説得力のあるアプローチとして、デファシブル議論の一般化性を実証的に強化する以前の研究を付け加えた。
関連論文リスト
- The Foundations of Tokenization: Statistical and Computational Concerns [51.370165245628975]
トークン化は、NLPパイプラインにおける重要なステップである。
NLPにおける標準表現法としての重要性は認識されているが、トークン化の理論的基盤はまだ完全には理解されていない。
本稿では,トークン化モデルの表現と解析のための統一的な形式的枠組みを提案することによって,この理論的ギャップに対処することに貢献している。
論文 参考訳(メタデータ) (2024-07-16T11:12:28Z) - Reliability and Interpretability in Science and Deep Learning [0.0]
この記事では、従来の科学的モデルとDeep Neural Network(DNN)モデルの比較に焦点を当てる。
DNNモデルの複雑さは、その信頼性と長期的進歩の予測を妨げていると論じている。
また、解釈可能性が、統計分析だけでは理解できないあらゆるモデルの信頼性を評価するための前提条件であることも明らかにした。
論文 参考訳(メタデータ) (2024-01-14T20:14:07Z) - Faithful Model Explanations through Energy-Constrained Conformal
Counterfactuals [16.67633872254042]
ブラックボックスモデルを説明するための直感的で直感的な説明を提供する。
既存の作業は主に、入力データの分散方法を学ぶために代理モデルに依存しています。
そこで本研究では,モデルが許容する範囲でのみ有効な,エネルギー制約のあるコンフォーマル・カウンセリングを生成するための新しいアルゴリズムフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-17T08:24:44Z) - Prototype-based Aleatoric Uncertainty Quantification for Cross-modal
Retrieval [139.21955930418815]
クロスモーダル検索手法は、共通表現空間を共同学習することにより、視覚と言語モダリティの類似性関係を構築する。
しかし、この予測は、低品質なデータ、例えば、腐敗した画像、速いペースの動画、詳細でないテキストによって引き起こされるアレタリック不確実性のために、しばしば信頼性が低い。
本稿では, 原型に基づくAleatoric Uncertainity Quantification (PAU) フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T09:41:19Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Learning a Structural Causal Model for Intuition Reasoning in
Conversation [20.243323155177766]
NLP研究の重要な側面である推論は、一般的なモデルによって適切に対処されていない。
我々は、各発話がどのように情報チャネルを受信し、活性化するかを説明する会話認知モデル(CCM)を開発した。
変分推論を利用することで、暗黙的な原因の代用を探索し、その観測不可能性の問題に対処し、証拠の低い境界を通して発話の因果表現を再構築する。
論文 参考訳(メタデータ) (2023-05-28T13:54:09Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。