論文の概要: An Argumentation-based Approach for Identifying and Dealing with
Incompatibilities among Procedural Goals
- arxiv url: http://arxiv.org/abs/2009.05186v1
- Date: Fri, 11 Sep 2020 01:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:24:26.030921
- Title: An Argumentation-based Approach for Identifying and Dealing with
Incompatibilities among Procedural Goals
- Title(参考訳): 手続き目標間の不整合を識別・対処するための議論に基づくアプローチ
- Authors: Mariela Morveli-Espinoza, Juan Carlos Nieves, Ayslan Possebom, Josep
Puyol-Gruart, and Cesar Augusto Tacla
- Abstract要約: インテリジェントエージェントは複数のパース可能なゴールを生成し、それら間で互換性がない可能性がある。
本稿では,これらの非互換性の定義,識別,解決に焦点をあてる。
- 参考スコア(独自算出の注目度): 1.1744028458220426
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: During the first step of practical reasoning, i.e. deliberation, an
intelligent agent generates a set of pursuable goals and then selects which of
them he commits to achieve. An intelligent agent may in general generate
multiple pursuable goals, which may be incompatible among them. In this paper,
we focus on the definition, identification and resolution of these
incompatibilities. The suggested approach considers the three forms of
incompatibility introduced by Castelfranchi and Paglieri, namely the terminal
incompatibility, the instrumental or resources incompatibility and the
superfluity. We characterise computationally these forms of incompatibility by
means of arguments that represent the plans that allow an agent to achieve his
goals. Thus, the incompatibility among goals is defined based on the conflicts
among their plans, which are represented by means of attacks in an
argumentation framework. We also work on the problem of goals selection; we
propose to use abstract argumentation theory to deal with this problem, i.e. by
applying argumentation semantics. We use a modified version of the "cleaner
world" scenario in order to illustrate the performance of our proposal.
- Abstract(参考訳): 実践的推論、すなわち熟考の最初の段階において、知的エージェントはパーソナライズ可能な目標のセットを生成し、そのどれを達成するかを選択する。
知的エージェントは一般に複数のパーソナライズ可能な目標を生成し、それらはそれらの間に互換性がない可能性がある。
本稿では,これらの非互換性の定義,識別,解決に着目する。
提案手法は,カステルフランキとパリエリが導入した3種類の非適合性,すなわち終端不適合性,機器や資源の不適合性,超流動性を考慮したものである。
我々は,エージェントが目標を達成するための計画を表す議論によって,これらの非互換性を計算的に特徴づける。
したがって、目標間の非互換性は、議論フレームワークにおける攻撃によって表される彼らの計画間の衝突に基づいて定義される。
また,目標選択の問題にも取り組み,抽象的議論理論を用いてこの問題,すなわち議論意味論を適用することを提案する。
提案の成果を説明するために,"クリーンな世界" シナリオの修正版を使用します。
関連論文リスト
- A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [60.244412212130264]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - A Semantic Approach to Decidability in Epistemic Planning (Extended
Version) [72.77805489645604]
我々は決定可能性を達成するために新しい意味論的アプローチを用いる。
具体的には、知識の論理S5$_n$と(知識)可換性と呼ばれる相互作用公理を拡大する。
我々は,本フレームワークが,独立した知識である共通知識の有限的非固定点的特徴を認めていることを証明した。
論文 参考訳(メタデータ) (2023-07-28T11:26:26Z) - Safe Explicable Planning [3.3869539907606603]
安全計画(SEP:Safe Explicable Planning)を提案する。
提案手法は,複数のモデルから派生した複数の対象の考察を一般化する。
これらの手法の望ましい理論的性質を検証するための公式な証明を提供する。
論文 参考訳(メタデータ) (2023-04-04T21:49:02Z) - Formalizing the Problem of Side Effect Regularization [81.97441214404247]
本稿では,補助ゲームフレームワークを用いたサイドエフェクト正規化のための公式な基準を提案する。
これらのゲームでは、エージェントは部分的に観測可能なマルコフ決定プロセスを解決する。
このPOMDPは、エージェントが将来的なタスクをこなす能力と、プロキシ報酬を交換することで解決されることを示す。
論文 参考訳(メタデータ) (2022-06-23T16:36:13Z) - Logically Consistent Adversarial Attacks for Soft Theorem Provers [110.17147570572939]
本稿では,言語モデルの推論能力の探索と改善のための生成的逆説フレームワークを提案する。
我々のフレームワークは、敵の攻撃をうまく発生させ、グローバルな弱点を識別する。
有効探索に加えて, 生成したサンプルのトレーニングにより, 対象モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-04-29T19:10:12Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Dealing with Incompatibilities among Procedural Goals under Uncertainty [1.2599533416395763]
我々は、前提が不確実性に迫っている構造化された議論によってエージェントの計画を表現する。
これらの議論の強さを測り、互換性のある目標の集合を決定する。
構造化された議論の強さを測る新しいアプローチを考えると、計画と目標の選択のための意味論を提案する。
論文 参考訳(メタデータ) (2020-09-17T00:56:45Z) - An Argumentation-based Approach for Explaining Goal Selection in
Intelligent Agents [0.0]
知的エージェントは、仮定可能な目標のセットを生成し、そのどれが達成にコミットするかを選択します。
目標選択の文脈では、エージェントは、特定の目標を選択する(または選択しない)ための推論パスを説明することができるべきである。
本稿では, 部分的説明と完全説明という2種類の説明法と, 擬似自然説明を生成するための説明法を提案する。
論文 参考訳(メタデータ) (2020-09-14T01:10:13Z) - Resolving Resource Incompatibilities in Intelligent Agents [0.0]
本稿では,資源制限による不整合性に着目した。
追従目標の集合から資源不整合性を特定するアルゴリズムを提案し,その一方で,追従を続ける目標を選択するための2つの方法を提案する。
論文 参考訳(メタデータ) (2020-09-13T02:09:04Z) - Argumentation-based Agents that Explain their Decisions [0.0]
我々は,BDI(Beliefs-Desires-Intentions)エージェントの拡張モデルが,それらの推論に関する説明を生成できることに焦点をあてる。
我々の提案は議論理論に基づいており、エージェントが決定を下す理由を表現するために議論を用いる。
部分的説明と完全説明の2つのタイプを提案する。
論文 参考訳(メタデータ) (2020-09-13T02:08:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。