論文の概要: Theme Aspect Argumentation Model for Handling Fallacies
- arxiv url: http://arxiv.org/abs/2205.15141v1
- Date: Mon, 30 May 2022 14:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:13:47.794861
- Title: Theme Aspect Argumentation Model for Handling Fallacies
- Title(参考訳): 誤用処理のためのテーマアスペクト議論モデル
- Authors: Ryuta Arisaka
- Abstract要約: フォーマルな制約によって誤認を識別する新しい手法を提案する。
これらの形式的な制約の結果を示し、証明する。
次に、正規形式の概念と論理-修辞的結論の概念を定義する。
- 参考スコア(独自算出の注目度): 2.055949720959582
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we present a novel approach to identify fallacies through
formal constraints, as a viable alternative to more traditional fallacy
classifications by informal criteria. To achieve this objective, we introduce a
novel argumentation model, the theme aspect argumentation model, which can do
both: modelling of a given argumentation as it is expressed (rhetoric
modelling); and deeper semantic analysis of the rhetoric argumentation model.
By the help of formal constraints on the theme aspect argumentation model, it
is for example possible to see if 'attack's which are claimed to be attacks at
the rhetoric level are really attacks. We present core formal constraints that
a reasonable argumentation should observe, and then more formal constraints
that improve fallacy identification capability. We show and prove consequences
of these formal constraints. We then define the concept of normal forms and
that of logico-rhetorical conclusion, which we use to demonstrate detection of
specific fallacies, informal and logical.
- Abstract(参考訳): 本稿では,より伝統的な誤り分類の代替として,形式的な制約によって誤用を識別する新しい手法を提案する。
この目的を達成するために、与えられた議論を表現したモデル(修辞的モデリング)と、修辞的論証モデルのより深い意味分析の両方を行うことができる新しい議論モデル、テーマアスペクト論証モデルを導入する。
テーマアスペクトの議論モデルに関する公式な制約により、例えば、修辞レベルで攻撃であるとされる'アタック'が本当に攻撃であるかどうかを確認することができる。
我々は、合理的な議論が観察すべき中核的な形式的制約を示し、次に、誤認識別能力を改善するためのより正式な制約を示す。
これらの形式的な制約の結果を示し、証明する。
次に、正規形式の概念と論理-修辞的結論の概念を定義し、非公式かつ論理的な特定の誤認の検出を実証するために使用する。
関連論文リスト
- A Logical Fallacy-Informed Framework for Argument Generation [34.35377699079075]
FIPOは、大規模言語モデルを論理的に健全な議論に導いてくれる、誤用インフォームドフレームワークである。
議論データセットの結果から,提案手法は誤り率を最大17.5%削減することを示した。
私たちのコードは alucamouchel.com/lucamouchel/Logical-Fallacies で利用可能です。
論文 参考訳(メタデータ) (2024-08-07T08:19:44Z) - Flee the Flaw: Annotating the Underlying Logic of Fallacious Arguments Through Templates and Slot-filling [15.339084849719223]
一般的な非公式な論理的誤字に対して、説明可能なテンプレートを4つ導入する。
LOGICデータセットから抽出した400の誤った議論に対して注釈研究を行う。
我々は、最先端の言語モデルが誤検出テンプレートの発見に苦労していることを発見した。
論文 参考訳(メタデータ) (2024-06-18T08:44:45Z) - Discussion Graph Semantics of First-Order Logic with Equality for Reasoning about Discussion and Argumentation [0.9790236766474198]
議論と議論に関する推論に等しい一階述語論理の議論グラフ意味論を定式化する。
我々は、一階述語論理式(等式付き)のセマンティクスをトップダウンで定式化することで、一般性を達成する。
論文 参考訳(メタデータ) (2024-06-18T00:32:00Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - CASA: Causality-driven Argument Sufficiency Assessment [79.13496878681309]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは前提イベントの導入が前提イベントと結論イベントの両方が欠落した場合の結論につながる可能性を測っている。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - Large Language Models are Few-Shot Training Example Generators: A Case Study in Fallacy Recognition [49.38757847011105]
計算誤認識は、さまざまなジャンル、ドメイン、データセットに見られる誤認識のタイプによって、課題に直面します。
我々は、追加の文脈を取り入れ、大規模な言語モデルを活用して合成データを生成することによって、誤認識のための既存のモデルを強化することを目指している。
評価結果は、誤検出タイプ、データセット、ジェネレータ間で一貫した改善を示す。
論文 参考訳(メタデータ) (2023-11-16T04:17:47Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Logical Fallacy Detection [40.06349885733248]
本稿では,論理的誤り検出の課題を提案し,テキストに一般的に見られる論理的誤りの新たなデータセット(論理)を提供する。
簡単な構造認識型分類器は、Logicでは5.46%、LogicClimateでは4.51%で最高の言語モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-28T13:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。