論文の概要: Theme Aspect Argumentation Model for Handling Fallacies
- arxiv url: http://arxiv.org/abs/2205.15141v2
- Date: Wed, 25 Oct 2023 09:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-28 06:55:22.013160
- Title: Theme Aspect Argumentation Model for Handling Fallacies
- Title(参考訳): 誤用処理のためのテーマアスペクト議論モデル
- Authors: Ryuta Arisaka, Ryoma Nakai, Yusuke Kawamoto, Takayuki Ito
- Abstract要約: フォーマルな制約によって誤認識を特徴づける新しい手法を提案する。
フォーマルな制約で誤字を識別することにより、モデル付き修辞学における誤字がフォーマルな厳密さを持つかどうかを判断することができる。
- 参考スコア(独自算出の注目度): 2.3230307339947274
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: From daily discussions to marketing ads to political statements, information
manipulation is rife. It is increasingly more important that we have the right
set of tools to defend ourselves from manipulative rhetoric, or fallacies.
Suitable techniques to automatically identify fallacies are being investigated
in natural language processing research. However, a fallacy in one context may
not be a fallacy in another context, so there is also a need to explain how and
why it has come to be judged a fallacy. For the explainable fallacy
identification, we present a novel approach to characterising fallacies through
formal constraints, as a viable alternative to more traditional fallacy
classifications by informal criteria. To achieve this objective, we introduce a
novel context-aware argumentation model, the theme aspect argumentation model,
which can do both: the modelling of a given argumentation as it is expressed
(rhetorical modelling); and a deeper semantic analysis of the rhetorical
argumentation model. By identifying fallacies with formal constraints, it
becomes possible to tell whether a fallacy lurks in the modelled rhetoric with
a formal rigour. We present core formal constraints for the theme aspect
argumentation model and then more formal constraints that improve its fallacy
identification capability. We show and prove the consequences of these formal
constraints. We then analyse the computational complexities of deciding the
satisfiability of the constraints.
- Abstract(参考訳): 毎日の議論からマーケティング広告、政治声明まで、情報操作は厳しい。
マニピュレーション的な修辞や誤用から身を守るための適切なツールセットを持つことが、ますます重要になっています。
誤用を自動的に識別する適切な手法が自然言語処理研究で研究されている。
しかし、ある文脈における誤性は別の文脈では誤性ではなく、なぜ誤性と判断されるようになったのかを説明する必要もある。
本稿では, フォーマルな制約による誤字の特徴付けを, 非公式な基準による従来型誤字分類の代替として実現可能な方法として提示する。
この目的を達成するために、新しい文脈認識型議論モデルであるテーマアスペクト議論モデル(英語版)を導入し、表現された議論のモデル化(rhetorical modelling)と、修辞的議論モデルのより深い意味解析を両立する。
形式的な制約によって誤用を識別することで、誤用が形式的な厳密さでモデル化された修辞法に潜むかどうかを判断することができる。
我々は,テーマアスペクトの議論モデルに対する中核的形式的制約と,その誤り識別能力を改善するより形式的制約を提案する。
これらの形式的な制約の結果を示し、証明する。
次に,制約の満足度を決定する計算複雑性を解析する。
関連論文リスト
- A Logical Fallacy-Informed Framework for Argument Generation [34.35377699079075]
FIPOは、大規模言語モデルを論理的に健全な議論に導いてくれる、誤用インフォームドフレームワークである。
議論データセットの結果から,提案手法は誤り率を最大17.5%削減することを示した。
私たちのコードは alucamouchel.com/lucamouchel/Logical-Fallacies で利用可能です。
論文 参考訳(メタデータ) (2024-08-07T08:19:44Z) - Flee the Flaw: Annotating the Underlying Logic of Fallacious Arguments Through Templates and Slot-filling [15.339084849719223]
一般的な非公式な論理的誤字に対して、説明可能なテンプレートを4つ導入する。
LOGICデータセットから抽出した400の誤った議論に対して注釈研究を行う。
我々は、最先端の言語モデルが誤検出テンプレートの発見に苦労していることを発見した。
論文 参考訳(メタデータ) (2024-06-18T08:44:45Z) - Discussion Graph Semantics of First-Order Logic with Equality for Reasoning about Discussion and Argumentation [0.9790236766474198]
議論と議論に関する推論に等しい一階述語論理の議論グラフ意味論を定式化する。
我々は、一階述語論理式(等式付き)のセマンティクスをトップダウンで定式化することで、一般性を達成する。
論文 参考訳(メタデータ) (2024-06-18T00:32:00Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - CASA: Causality-driven Argument Sufficiency Assessment [79.13496878681309]
ゼロショット因果関係に基づく議論十分性評価フレームワークであるCASAを提案する。
PSは前提イベントの導入が前提イベントと結論イベントの両方が欠落した場合の結論につながる可能性を測っている。
2つの論理的誤り検出データセットの実験により、CASAは不十分な議論を正確に識別することを示した。
論文 参考訳(メタデータ) (2024-01-10T16:21:18Z) - Large Language Models are Few-Shot Training Example Generators: A Case Study in Fallacy Recognition [49.38757847011105]
計算誤認識は、さまざまなジャンル、ドメイン、データセットに見られる誤認識のタイプによって、課題に直面します。
我々は、追加の文脈を取り入れ、大規模な言語モデルを活用して合成データを生成することによって、誤認識のための既存のモデルを強化することを目指している。
評価結果は、誤検出タイプ、データセット、ジェネレータ間で一貫した改善を示す。
論文 参考訳(メタデータ) (2023-11-16T04:17:47Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Logical Fallacy Detection [40.06349885733248]
本稿では,論理的誤り検出の課題を提案し,テキストに一般的に見られる論理的誤りの新たなデータセット(論理)を提供する。
簡単な構造認識型分類器は、Logicでは5.46%、LogicClimateでは4.51%で最高の言語モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-28T13:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。