論文の概要: Theme Aspect Argumentation Model for Handling Fallacies
- arxiv url: http://arxiv.org/abs/2205.15141v1
- Date: Mon, 30 May 2022 14:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:13:47.794861
- Title: Theme Aspect Argumentation Model for Handling Fallacies
- Title(参考訳): 誤用処理のためのテーマアスペクト議論モデル
- Authors: Ryuta Arisaka
- Abstract要約: フォーマルな制約によって誤認を識別する新しい手法を提案する。
これらの形式的な制約の結果を示し、証明する。
次に、正規形式の概念と論理-修辞的結論の概念を定義する。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present a novel approach to identify fallacies through
formal constraints, as a viable alternative to more traditional fallacy
classifications by informal criteria. To achieve this objective, we introduce a
novel argumentation model, the theme aspect argumentation model, which can do
both: modelling of a given argumentation as it is expressed (rhetoric
modelling); and deeper semantic analysis of the rhetoric argumentation model.
By the help of formal constraints on the theme aspect argumentation model, it
is for example possible to see if 'attack's which are claimed to be attacks at
the rhetoric level are really attacks. We present core formal constraints that
a reasonable argumentation should observe, and then more formal constraints
that improve fallacy identification capability. We show and prove consequences
of these formal constraints. We then define the concept of normal forms and
that of logico-rhetorical conclusion, which we use to demonstrate detection of
specific fallacies, informal and logical.
- Abstract(参考訳): 本稿では,より伝統的な誤り分類の代替として,形式的な制約によって誤用を識別する新しい手法を提案する。
この目的を達成するために、与えられた議論を表現したモデル(修辞的モデリング)と、修辞的論証モデルのより深い意味分析の両方を行うことができる新しい議論モデル、テーマアスペクト論証モデルを導入する。
テーマアスペクトの議論モデルに関する公式な制約により、例えば、修辞レベルで攻撃であるとされる'アタック'が本当に攻撃であるかどうかを確認することができる。
我々は、合理的な議論が観察すべき中核的な形式的制約を示し、次に、誤認識別能力を改善するためのより正式な制約を示す。
これらの形式的な制約の結果を示し、証明する。
次に、正規形式の概念と論理-修辞的結論の概念を定義し、非公式かつ論理的な特定の誤認の検出を実証するために使用する。
関連論文リスト
- Analyizing the Conjunction Fallacy as a Fact [0.0]
本研究は, 先行的事実可能性のごく一部に焦点が当てられている。
後者は、その性質が拡張的考察によって動機づけられていることを考えると、共同誤認における研究の進化のかなり興味深い側面である。
論文 参考訳(メタデータ) (2024-02-21T08:40:04Z) - CASA: Causality-driven Argument Sufficiency Assessment [88.9397744157365]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは、前提イベントと結論イベントの両方が欠落している場合に、前提イベントの導入が結論につながる可能性を測る。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - Large Language Models are Few-Shot Training Example Generators: A Case
Study in Fallacy Recognition [53.952381499149965]
計算誤認識は、さまざまなジャンル、ドメイン、データセットに見られる誤認識のタイプによって、課題に直面します。
我々は、追加の文脈を取り入れ、大規模な言語モデルを活用して合成データを生成することによって、誤認識のための既存のモデルを強化することを目指している。
評価結果は、誤検出タイプ、データセット、ジェネレータ間で一貫した改善を示す。
論文 参考訳(メタデータ) (2023-11-16T04:17:47Z) - A Closer Look at the Self-Verification Abilities of Large Language
Models in Logical Reasoning [79.14479982371984]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Case-Based Reasoning with Language Models for Classification of Logical
Fallacies [3.511369967593153]
本稿では,論理的誤りの新たな事例を分類するケースベース推論手法を提案する。
本実験は,ケースベース推論が言語モデルの精度と一般化性を向上させることを示唆している。
論文 参考訳(メタデータ) (2023-01-27T17:49:16Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - LPAttack: A Feasible Annotation Scheme for Capturing Logic Pattern of
Attacks in Arguments [33.445994192714956]
議論的な言論において、説得は、しばしば他人の議論に反論したり攻撃したりすることで達成される。
既存の研究では、攻撃における複雑な修辞的な動きや、その中の前提や価値の判断を捉えていない。
LPAttackは、攻撃における共通モードと複雑な修辞の動きを、暗黙の前提と値の判断とともにキャプチャする、新しいアノテーションスキームである。
論文 参考訳(メタデータ) (2022-04-04T14:15:25Z) - Logical Fallacy Detection [40.06349885733248]
本稿では,論理的誤り検出の課題を提案し,テキストに一般的に見られる論理的誤りの新たなデータセット(論理)を提供する。
簡単な構造認識型分類器は、Logicでは5.46%、LogicClimateでは4.51%で最高の言語モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-28T13:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。