論文の概要: Theme Aspect Argumentation Model for Handling Fallacies
- arxiv url: http://arxiv.org/abs/2205.15141v2
- Date: Wed, 25 Oct 2023 09:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-28 06:55:22.013160
- Title: Theme Aspect Argumentation Model for Handling Fallacies
- Title(参考訳): 誤用処理のためのテーマアスペクト議論モデル
- Authors: Ryuta Arisaka, Ryoma Nakai, Yusuke Kawamoto, Takayuki Ito
- Abstract要約: フォーマルな制約によって誤認識を特徴づける新しい手法を提案する。
フォーマルな制約で誤字を識別することにより、モデル付き修辞学における誤字がフォーマルな厳密さを持つかどうかを判断することができる。
- 参考スコア(独自算出の注目度): 2.3230307339947274
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: From daily discussions to marketing ads to political statements, information
manipulation is rife. It is increasingly more important that we have the right
set of tools to defend ourselves from manipulative rhetoric, or fallacies.
Suitable techniques to automatically identify fallacies are being investigated
in natural language processing research. However, a fallacy in one context may
not be a fallacy in another context, so there is also a need to explain how and
why it has come to be judged a fallacy. For the explainable fallacy
identification, we present a novel approach to characterising fallacies through
formal constraints, as a viable alternative to more traditional fallacy
classifications by informal criteria. To achieve this objective, we introduce a
novel context-aware argumentation model, the theme aspect argumentation model,
which can do both: the modelling of a given argumentation as it is expressed
(rhetorical modelling); and a deeper semantic analysis of the rhetorical
argumentation model. By identifying fallacies with formal constraints, it
becomes possible to tell whether a fallacy lurks in the modelled rhetoric with
a formal rigour. We present core formal constraints for the theme aspect
argumentation model and then more formal constraints that improve its fallacy
identification capability. We show and prove the consequences of these formal
constraints. We then analyse the computational complexities of deciding the
satisfiability of the constraints.
- Abstract(参考訳): 毎日の議論からマーケティング広告、政治声明まで、情報操作は厳しい。
マニピュレーション的な修辞や誤用から身を守るための適切なツールセットを持つことが、ますます重要になっています。
誤用を自動的に識別する適切な手法が自然言語処理研究で研究されている。
しかし、ある文脈における誤性は別の文脈では誤性ではなく、なぜ誤性と判断されるようになったのかを説明する必要もある。
本稿では, フォーマルな制約による誤字の特徴付けを, 非公式な基準による従来型誤字分類の代替として実現可能な方法として提示する。
この目的を達成するために、新しい文脈認識型議論モデルであるテーマアスペクト議論モデル(英語版)を導入し、表現された議論のモデル化(rhetorical modelling)と、修辞的議論モデルのより深い意味解析を両立する。
形式的な制約によって誤用を識別することで、誤用が形式的な厳密さでモデル化された修辞法に潜むかどうかを判断することができる。
我々は,テーマアスペクトの議論モデルに対する中核的形式的制約と,その誤り識別能力を改善するより形式的制約を提案する。
これらの形式的な制約の結果を示し、証明する。
次に,制約の満足度を決定する計算複雑性を解析する。
関連論文リスト
- Analyizing the Conjunction Fallacy as a Fact [0.0]
本研究は, 先行的事実可能性のごく一部に焦点が当てられている。
後者は、その性質が拡張的考察によって動機づけられていることを考えると、共同誤認における研究の進化のかなり興味深い側面である。
論文 参考訳(メタデータ) (2024-02-21T08:40:04Z) - CASA: Causality-driven Argument Sufficiency Assessment [88.9397744157365]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは、前提イベントと結論イベントの両方が欠落している場合に、前提イベントの導入が結論につながる可能性を測る。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - Large Language Models are Few-Shot Training Example Generators: A Case
Study in Fallacy Recognition [53.952381499149965]
計算誤認識は、さまざまなジャンル、ドメイン、データセットに見られる誤認識のタイプによって、課題に直面します。
我々は、追加の文脈を取り入れ、大規模な言語モデルを活用して合成データを生成することによって、誤認識のための既存のモデルを強化することを目指している。
評価結果は、誤検出タイプ、データセット、ジェネレータ間で一貫した改善を示す。
論文 参考訳(メタデータ) (2023-11-16T04:17:47Z) - A Closer Look at the Self-Verification Abilities of Large Language
Models in Logical Reasoning [79.14479982371984]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - A Unifying Framework for Learning Argumentation Semantics [50.69905074548764]
Inductive Logic Programmingアプローチを用いて、抽象的および構造化された議論フレームワークのアクセシビリティセマンティクスを解釈可能な方法で学習する新しいフレームワークを提案する。
提案手法は既存の議論解法よりも優れており,フォーマルな議論や人間と機械の対話の領域において,新たな研究の方向性が開けることになる。
論文 参考訳(メタデータ) (2023-10-18T20:18:05Z) - Case-Based Reasoning with Language Models for Classification of Logical
Fallacies [3.511369967593153]
本稿では,論理的誤りの新たな事例を分類するケースベース推論手法を提案する。
本実験は,ケースベース推論が言語モデルの精度と一般化性を向上させることを示唆している。
論文 参考訳(メタデータ) (2023-01-27T17:49:16Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - LPAttack: A Feasible Annotation Scheme for Capturing Logic Pattern of
Attacks in Arguments [33.445994192714956]
議論的な言論において、説得は、しばしば他人の議論に反論したり攻撃したりすることで達成される。
既存の研究では、攻撃における複雑な修辞的な動きや、その中の前提や価値の判断を捉えていない。
LPAttackは、攻撃における共通モードと複雑な修辞の動きを、暗黙の前提と値の判断とともにキャプチャする、新しいアノテーションスキームである。
論文 参考訳(メタデータ) (2022-04-04T14:15:25Z) - Logical Fallacy Detection [40.06349885733248]
本稿では,論理的誤り検出の課題を提案し,テキストに一般的に見られる論理的誤りの新たなデータセット(論理)を提供する。
簡単な構造認識型分類器は、Logicでは5.46%、LogicClimateでは4.51%で最高の言語モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-28T13:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。