論文の概要: A Few Hypocrites: Few-Shot Learning and Subtype Definitions for Detecting Hypocrisy Accusations in Online Climate Change Debates
- arxiv url: http://arxiv.org/abs/2409.16807v1
- Date: Wed, 25 Sep 2024 10:56:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 04:30:14.865520
- Title: A Few Hypocrites: Few-Shot Learning and Subtype Definitions for Detecting Hypocrisy Accusations in Online Climate Change Debates
- Title(参考訳): 少人数の偽善者:オンライン気候変動に関する議論における偽善行為の検出のための少しの学習とサブタイプ定義
- Authors: Paulina Garcia Corral, Avishai Green, Hendrik Meyer, Anke Stoll, Xiaoyue Yan, Myrthe Reuver,
- Abstract要約: 偽犯罪の告発は、オンライン気候論争において中心的なレトリック要素である。
大規模テキスト分析では、偽善罪の告発検出は未調査のツールである。
本稿では,偽犯罪の告発検出をNLPにおける独立したタスクとして定義する。
- 参考スコア(独自算出の注目度): 0.21990652930491858
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The climate crisis is a salient issue in online discussions, and hypocrisy accusations are a central rhetorical element in these debates. However, for large-scale text analysis, hypocrisy accusation detection is an understudied tool, most often defined as a smaller subtask of fallacious argument detection. In this paper, we define hypocrisy accusation detection as an independent task in NLP, and identify different relevant subtypes of hypocrisy accusations. Our Climate Hypocrisy Accusation Corpus (CHAC) consists of 420 Reddit climate debate comments, expert-annotated into two different types of hypocrisy accusations: personal versus political hypocrisy. We evaluate few-shot in-context learning with 6 shots and 3 instruction-tuned Large Language Models (LLMs) for detecting hypocrisy accusations in this dataset. Results indicate that the GPT-4o and Llama-3 models in particular show promise in detecting hypocrisy accusations (F1 reaching 0.68, while previous work shows F1 of 0.44). However, context matters for a complex semantic concept such as hypocrisy accusations, and we find models struggle especially at identifying political hypocrisy accusations compared to personal moral hypocrisy. Our study contributes new insights in hypocrisy detection and climate change discourse, and is a stepping stone for large-scale analysis of hypocrisy accusation in online climate debates.
- Abstract(参考訳): 気候危機はオンライン議論において健全な問題であり、偽善的な告発はこれらの議論の中心的なレトリック要素である。
しかし、大規模なテキスト分析では、偽犯罪の告発検出は未調査のツールであり、たいていの場合、誤った議論検出の小さなサブタスクとして定義される。
本稿では,偽犯罪の告発検出をNLPにおける独立したタスクと定義し,偽犯罪の告発の異なるサブタイプを同定する。
Our Climate hypocrisy Accusation Corpus (CHAC) は、Redditの420の気候に関する議論のコメントから成り、専門家によって2つの異なる種類の偽犯罪の告発(個人と政治的偽善)に注釈付けされている。
このデータセットにおける偽善的告発を検出するために、6ショットと3つの命令調整されたLarge Language Model(LLMs)を用いて、数ショットのインコンテキスト学習を評価した。
その結果, GPT-4o と Llama-3 のモデルでは, 偽善的告発(F1 は 0.68 , 以前の研究では 0.44 であった。
しかし、文脈は、偽善的告発のような複雑な意味論的概念にとって重要であり、特に、個人的道徳的偽善よりも政治的偽善的告発を特定するのに、モデルが苦慮している。
本研究は, 偽善検知と気候変動談話に関する新たな知見を提供し, オンライン気候討論における偽善告発の大規模分析の足掛かりとなる。
関連論文リスト
- Grounding Fallacies Misrepresenting Scientific Publications in Evidence [84.32990746227385]
誤検出データセットMisciの拡張であるMisciPlusを紹介する。
MissciPlusはMissci上に構築されており、誤表現された研究から現実世界の通路で適用された誤報を根拠にしている。
MissciPlusは、現実世界の誤った証拠と誤った主張を組み合わせた最初の論理的誤認データセットである。
論文 参考訳(メタデータ) (2024-08-23T03:16:26Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Augmented CARDS: A machine learning approach to identifying triggers of climate change misinformation on Twitter [14.111559061588983]
気候変動に関する誤報は、社会的な幸福に重大な脅威をもたらす。
オンライン誤報の急増は、ファクトチェッカーが虚偽の主張を軽視する能力を大きく上回っている。
2段階の階層モデルであるAugmented CARDSモデルを開発した。
論文 参考訳(メタデータ) (2024-04-24T06:03:07Z) - "Here's Your Evidence": False Consensus in Public Twitter Discussions of COVID-19 Science [50.08057052734799]
プリプリントサーバからの抽象化のサンプルに基づいて,科学的コンセンサスを推定する。
アンチ・コンセンサス(反合意)の投稿や利用者は、概してプロ・コンセンサス(反合意)の投稿ほど多くはないが、Twitter上では圧倒的に過剰に表現されている。
論文 参考訳(メタデータ) (2024-01-24T06:16:57Z) - From Dogwhistles to Bullhorns: Unveiling Coded Rhetoric with Language
Models [73.25963871034858]
本研究は,イヌヒストルの大規模数値計算による研究である。
我々は、ドッグウィストルの類型学を開発し、300以上のドッグウィストルの過去最大の用語集をキュレートし、歴史的なアメリカの政治家の演説でそれらの使用法を分析した。
犬毛を含む有害なコンテンツは毒性の検出を回避し,このような符号化された言語のオンラインリスクを強調している。
論文 参考訳(メタデータ) (2023-05-26T18:00:57Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - "Dummy Grandpa, do you know anything?": Identifying and Characterizing
Ad hominem Fallacy Usage in the Wild [7.022640250985622]
Ad hominem arguments はそのような誤認の最も効果的な形態の1つである。
2016年アメリカ合衆国大統領選挙以降、選挙議論の利用は大幅に増加した。
論文 参考訳(メタデータ) (2022-09-05T17:16:44Z) - Generating Literal and Implied Subquestions to Fact-check Complex Claims [64.81832149826035]
我々は、複雑なクレームを、そのクレームの正確性に影響を及ぼす「イエス・ノー・サブクエスト」の包括的集合に分解することに集中する。
我々は1000以上のクレームに対する分解のデータセットである ClaimDecomp を提示する。
これらのサブクエストは、関連する証拠を特定し、すべてのクレームを事実確認し、回答を通じて正確性を引き出すのに役立ちます。
論文 参考訳(メタデータ) (2022-05-14T00:40:57Z) - With False Friends Like These, Who Can Have Self-Knowledge? [26.582668429147777]
本稿では,過度な感度,すなわち誤分類例が容易に摂動できるという,興味深く,見過ごされがちな結果について考察する。
このような偽の友達があれば、パフォーマンスの悪いモデルは最先端のモデルのように振る舞うことができる。
デプロイ者が低臨界的なパフォーマンスを信頼し、実世界のアプリケーションで「よく機能する」モデルを使用すると、潜在的なセキュリティ上の懸念は良性のある環境でも現れます。
論文 参考訳(メタデータ) (2020-12-29T12:42:36Z) - Detecting Stance in Media on Global Warming [29.95657582544203]
地球温暖化(GW)に関する議論において,NLPではほとんど注目されていない,ますます党派的な問題である意見フレーミングについて検討する。
本研究は,GW受容メディアや懐疑メディアにまたがって,自己肯定的・否定的談話に類似した言語装置が用いられていることを明らかにする。
我々は、今後の意見フレーミングとGWスタンスの自動検出に向けたフレーミング装置のスタンスデータセット、モデル、およびレキシコンをリリースする。
論文 参考訳(メタデータ) (2020-10-28T18:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。