論文の概要: Logical Fallacy Detection
- arxiv url: http://arxiv.org/abs/2202.13758v3
- Date: Mon, 12 Dec 2022 04:47:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 15:18:44.575463
- Title: Logical Fallacy Detection
- Title(参考訳): 論理的誤認検出
- Authors: Zhijing Jin, Abhinav Lalwani, Tejas Vaidhya, Xiaoyu Shen, Yiwen Ding,
Zhiheng Lyu, Mrinmaya Sachan, Rada Mihalcea, Bernhard Sch\"olkopf
- Abstract要約: 本稿では,論理的誤り検出の課題を提案し,テキストに一般的に見られる論理的誤りの新たなデータセット(論理)を提供する。
簡単な構造認識型分類器は、Logicでは5.46%、LogicClimateでは4.51%で最高の言語モデルより優れていることを示す。
- 参考スコア(独自算出の注目度): 40.06349885733248
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Reasoning is central to human intelligence. However, fallacious arguments are
common, and some exacerbate problems such as spreading misinformation about
climate change. In this paper, we propose the task of logical fallacy
detection, and provide a new dataset (Logic) of logical fallacies generally
found in text, together with an additional challenge set for detecting logical
fallacies in climate change claims (LogicClimate). Detecting logical fallacies
is a hard problem as the model must understand the underlying logical structure
of the argument. We find that existing pretrained large language models perform
poorly on this task. In contrast, we show that a simple structure-aware
classifier outperforms the best language model by 5.46% on Logic and 4.51% on
LogicClimate. We encourage future work to explore this task as (a) it can serve
as a new reasoning challenge for language models, and (b) it can have potential
applications in tackling the spread of misinformation. Our dataset and code are
available at https://github.com/causalNLP/logical-fallacy
- Abstract(参考訳): 推論は人間の知性の中心である。
しかし、悪質な議論が一般的であり、気候変動に関する誤報を広めるなど、悪化する問題もある。
本稿では,論理的誤り検出の課題を提案し,テキストに一般的に見られる論理的誤りの新たなデータセット(ロジック)と,気候変動の主張(LogicClimate)における論理的誤りの検出のための追加の課題を提案する。
モデルが議論の根底にある論理構造を理解する必要があるため、論理的誤りの検出は難しい問題である。
既存の事前学習済みの大規模言語モデルは、このタスクでパフォーマンスが悪いことが分かりました。
対照的に、単純な構造認識型分類器は論理学では5.46%、論理学では4.51%の言語モデルを上回る。
私たちは今後この課題を探求することを奨励します
(a)言語モデルの新たな推論課題として機能し、
(b)誤情報の拡散に取り組むための潜在的な応用がある可能性がある。
私たちのデータセットとコードはhttps://github.com/causalNLP/logical-fallacyで利用可能です。
関連論文リスト
- A Logical Fallacy-Informed Framework for Argument Generation [34.35377699079075]
FIPOは、大規模言語モデルを論理的に健全な議論に導いてくれる、誤用インフォームドフレームワークである。
議論データセットの結果から,提案手法は誤り率を最大17.5%削減することを示した。
私たちのコードは alucamouchel.com/lucamouchel/Logical-Fallacies で利用可能です。
論文 参考訳(メタデータ) (2024-08-07T08:19:44Z) - Flee the Flaw: Annotating the Underlying Logic of Fallacious Arguments Through Templates and Slot-filling [15.339084849719223]
一般的な非公式な論理的誤字に対して、説明可能なテンプレートを4つ導入する。
LOGICデータセットから抽出した400の誤った議論に対して注釈研究を行う。
我々は、最先端の言語モデルが誤検出テンプレートの発見に苦労していることを発見した。
論文 参考訳(メタデータ) (2024-06-18T08:44:45Z) - NL2FOL: Translating Natural Language to First-Order Logic for Logical Fallacy Detection [45.28949266878263]
本研究では,自然言語を一階論理に変換することによって,論理的誤りを確実に検出する手法を設計する。
次に、満足度モデュロ理論(SMT)を用いて、式の有効性を推論する。
私たちのアプローチは堅牢で解釈可能で、トレーニングデータや微調整は必要ありません。
論文 参考訳(メタデータ) (2024-04-18T00:20:48Z) - A Closer Look at the Self-Verification Abilities of Large Language Models in Logical Reasoning [73.77088902676306]
論理的推論の文脈において,大規模言語モデル(LLM)の自己検証能力について詳しく検討する。
本研究の主目的は,既存のLCMが誤った推論手順を正確に識別するのに苦労し,自己検証法の有効性を保証できないことにある。
論文 参考訳(メタデータ) (2023-11-14T07:13:10Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Empower Nested Boolean Logic via Self-Supervised Curriculum Learning [67.46052028752327]
大規模言語モデルを含む事前学習された言語モデルは、多言語論理に直面するランダムセレクタのように振る舞う。
この基本的能力で言語モデルを強化するために,本稿では,新たな自己教師付き学習手法であるtextitCurriculum Logical Reasoning (textscClr) を提案する。
論文 参考訳(メタデータ) (2023-10-09T06:54:02Z) - Theme Aspect Argumentation Model for Handling Fallacies [2.3230307339947274]
フォーマルな制約によって誤認識を特徴づける新しい手法を提案する。
フォーマルな制約で誤字を識別することにより、モデル付き修辞学における誤字がフォーマルな厳密さを持つかどうかを判断することができる。
論文 参考訳(メタデータ) (2022-05-30T14:34:09Z) - On the Paradox of Learning to Reason from Data [86.13662838603761]
BERTは,同じ問題空間上での他のデータ分布への一般化に失敗しながら,分布内テスト例に対してほぼ完全な精度が得られることを示す。
このパラドックスは、正しい推論関数をエミュレートする学習ではなく、論理的推論問題に本質的に存在する統計的特徴を実際に学習している。
論文 参考訳(メタデータ) (2022-05-23T17:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。