論文の概要: Preference Elicitation in Assumption-Based Argumentation
- arxiv url: http://arxiv.org/abs/2005.05721v1
- Date: Tue, 12 May 2020 12:31:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:08:10.894072
- Title: Preference Elicitation in Assumption-Based Argumentation
- Title(参考訳): 仮定に基づく議論における選好誘発
- Authors: Quratul-ain Mahesar, Nir Oren and Wamberto W. Vasconcelos
- Abstract要約: 我々は、仮定よりもどの選好が与えられた結論の集合につながるかを特定するために、標準的な推論問題の逆について考察する。
本稿では、所望の競合のない結論の集合が得られ得るシステム内の仮定よりも、可能なすべての選好集合を計算し、列挙するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 3.0323642294813355
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Various structured argumentation frameworks utilize preferences as part of
their standard inference procedure to enable reasoning with preferences. In
this paper, we consider an inverse of the standard reasoning problem, seeking
to identify what preferences over assumptions could lead to a given set of
conclusions being drawn. We ground our work in the Assumption-Based
Argumentation (ABA) framework, and present an algorithm which computes and
enumerates all possible sets of preferences over the assumptions in the system
from which a desired conflict free set of conclusions can be obtained under a
given semantic. After describing our algorithm, we establish its soundness,
completeness and complexity.
- Abstract(参考訳): 様々な構造化議論フレームワークは、選好を標準推論手順の一部として利用し、選好による推論を可能にする。
本稿では,標準的な推論問題の逆数を考察し,仮定よりも何を好むかを見極めることにより,与えられた結論が導かれるかを検討する。
我々は、ABA(Assumption-Based Argumentation)フレームワークで研究を行い、所望の競合のない結論の集合を与えられたセマンティクスの下で得るシステム内の仮定よりも、可能なすべての優先順位の集合を計算および列挙するアルゴリズムを提案する。
アルゴリズムを記述した後、その健全性、完全性、複雑さを確立する。
関連論文リスト
- Likelihood Ratio Confidence Sets for Sequential Decision Making [51.66638486226482]
確率に基づく推論の原理を再検討し、確率比を用いて妥当な信頼シーケンスを構築することを提案する。
本手法は, 精度の高い問題に特に適している。
提案手法は,オンライン凸最適化への接続に光を当てることにより,推定器の最適シーケンスを確実に選択する方法を示す。
論文 参考訳(メタデータ) (2023-11-08T00:10:21Z) - Representing and Reasoning with Multi-Stakeholder Qualitative Preference
Queries [9.768677073327423]
マルチステークホルダーの質的嗜好による推論に関する最初の公式な処置を提供する。
本稿では,特定の基準を満たす結果の集合に対して,そのような嗜好に対してクエリを表現するクエリを提案する。
提案手法の有効性を示す実験結果について述べる。
論文 参考訳(メタデータ) (2023-07-30T19:52:59Z) - Invariant Causal Set Covering Machines [64.86459157191346]
決定木のようなルールベースのモデルは、解釈可能な性質のために実践者にアピールする。
しかし、そのようなモデルを生成する学習アルゴリズムは、しばしば刺激的な関連に弱いため、因果関係の洞察を抽出することが保証されていない。
Invariant Causal Set Covering Machines は、古典的集合被覆マシンアルゴリズムの拡張であり、二値ルールの結合/分離を可能とし、スプリアス関係を確実に回避する。
論文 参考訳(メタデータ) (2023-06-07T20:52:01Z) - Multivariate Systemic Risk Measures and Computation by Deep Learning
Algorithms [63.03966552670014]
本稿では,主観的最適度と関連するリスク割り当ての公平性に着目し,重要な理論的側面について論じる。
私たちが提供しているアルゴリズムは、予備項の学習、二重表現の最適化、およびそれに対応する公正なリスク割り当てを可能にします。
論文 参考訳(メタデータ) (2023-02-02T22:16:49Z) - Social Mechanism Design: A Low-Level Introduction [31.564788318133264]
エージェントは、意思決定結果と意思決定に使用されるルールまたは手順の両方を優先していることを示す。
低レベルにおける単純で直感的な選好構造を同定し、より高いレベルにおける選好の構成要素を形成するように一般化する。
非対称的二分法選択と憲法修正という2つの異なる領域における受容のアルゴリズムを解析する。
論文 参考訳(メタデータ) (2022-11-15T20:59:34Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Admissibility in Strength-based Argumentation: Complexity and Algorithms
(Extended Version with Proofs) [1.5828697880068698]
我々は、適応性に基づく意味論の強度に基づく論証フレームワーク(StrAF)への適応について研究する。
特に文献で定義された強い許容性は望ましい性質、すなわちDungの基本的な補題を満たさないことを示す。
計算(強弱)拡張に対する擬ブール制約の翻訳を提案する。
論文 参考訳(メタデータ) (2022-07-05T18:42:04Z) - Rationale-Augmented Ensembles in Language Models [53.45015291520658]
我々は、数発のテキスト内学習のための合理化促進策を再考する。
我々は、出力空間における合理的サンプリングを、性能を確実に向上させるキーコンポーネントとして特定する。
有理拡張アンサンブルは既存のプロンプト手法よりも正確で解釈可能な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-02T06:20:57Z) - Algorithmic Recourse in Partially and Fully Confounded Settings Through
Bounding Counterfactual Effects [0.6299766708197883]
アルゴリズムリコースは、自動意思決定システムからより好ましい結果を得るために、個人に実行可能なレコメンデーションを提供することを目的としている。
既存の手法では,データから学習した因果モデルを用いて,隠れたコンバウンディングや付加雑音などの仮定をモデル化する手法が提案されている。
本稿では、これらの仮定を緩和し、観測不能な共役および任意の構造方程式を可能にする離散確率変数に対する別のアプローチを提案する。
論文 参考訳(メタデータ) (2021-06-22T15:07:49Z) - Invariant Rationalization [84.1861516092232]
典型的な合理化基準、すなわち最大相互情報(MMI)は、合理性のみに基づいて予測性能を最大化する合理性を見つける。
ゲーム理論の不変な有理化基準を導入し、各環境において同じ予測器を最適にするために、有理を制約する。
理論的にも実証的にも、提案された理性は、素早い相関を除外し、異なるテストシナリオをより一般化し、人間の判断とよく一致させることができることを示す。
論文 参考訳(メタデータ) (2020-03-22T00:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。