論文の概要: Searching for Structure in Unfalsifiable Claims
- arxiv url: http://arxiv.org/abs/2209.00495v1
- Date: Fri, 19 Aug 2022 13:32:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:10:39.045009
- Title: Searching for Structure in Unfalsifiable Claims
- Title(参考訳): 不当なクレームの構造の探索
- Authors: Peter Ebert Christensen, Frederik Warburg, Menglin Jia, Serge Belongie
- Abstract要約: 本研究は,そのようなポストを,ある話題にまつわる本質的な主張を捉えた,小さな物語の集合に抽出することを目的としている。
PAPYERは公衆トイレにおける衛生に関する詳細なオンラインコメントのデータセットである。
本稿では,マシンカーネルとヒューマンカーネルの組み合わせを用いて,一般的な物語を発見する,ループ内人間パイプラインを提案する。
- 参考スコア(独自算出の注目度): 8.258451067861932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media platforms give rise to an abundance of posts and comments on
every topic imaginable. Many of these posts express opinions on various aspects
of society, but their unfalsifiable nature makes them ill-suited to
fact-checking pipelines. In this work, we aim to distill such posts into a
small set of narratives that capture the essential claims related to a given
topic. Understanding and visualizing these narratives can facilitate more
informed debates on social media. As a first step towards systematically
identifying the underlying narratives on social media, we introduce PAPYER, a
fine-grained dataset of online comments related to hygiene in public restrooms,
which contains a multitude of unfalsifiable claims. We present a
human-in-the-loop pipeline that uses a combination of machine and human kernels
to discover the prevailing narratives and show that this pipeline outperforms
recent large transformer models and state-of-the-art unsupervised topic models.
- Abstract(参考訳): ソーシャルメディアプラットフォームは、想像できるあらゆるトピックに関する投稿やコメントを大量に生み出す。
これらの投稿の多くは社会の様々な側面について意見を表明しているが、その不当な性質は事実チェックパイプラインに不適当である。
本研究の目的は,特定の話題に関する本質的な主張を捉えた,少数の物語集にその投稿を蒸留することである。
これらの物語を理解し視覚化することは、ソーシャルメディア上でよりインフォームドな議論を促進することができる。
ソーシャルメディア上の基本的な物語を体系的に特定するための第一歩として,公開トイレにおける衛生に関するオンラインコメントの詳細なデータセットであるpapyerを紹介する。
本稿では,機械と人間のカーネルを組み合わせることで,一般的なナラティブを探索し,このパイプラインが最近の大規模トランスフォーマーモデルや最先端の非教師付きトピックモデルよりも優れていることを示す。
関連論文リスト
- Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Discovering collective narratives shifts in online discussions [3.6231158294409482]
本稿では,変化点検出,意味的役割ラベリング(SRL),物語の断片を物語ネットワークに自動集約することで,ギャップを埋める体系的な物語発見フレームワークを提案する。
我々は、新型コロナウイルスと2017年のフランス大統領選に関する2つのTwitterコーパスを合成および実証データで評価した。
以上の結果から,本手法は主要な出来事に対応する大きな物語シフトを回復できることが示された。
論文 参考訳(メタデータ) (2023-07-17T15:00:04Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Entropy-rate as prediction method for newspapers and information
diffusion [0.0]
本稿は,オンライン新聞の視聴率を予測するために,ソーシャルネットワーク上で人気トピックがいかに利用されているかを示すものである。
本研究は,エントロピーレート,ダイナミックス,適切な情報拡散性能をソーシャルネットワークおよび新聞上で期待する課題に対処するものである。
論文 参考訳(メタデータ) (2022-11-29T10:00:54Z) - Rumor Detection on Twitter with Claim-Guided Hierarchical Graph
Attention Networks [5.167857972528786]
ソーシャルメディアの時代には噂が広まっている。
本研究では,ユーザの意見の相互作用を大幅に強化するために,まず対話スレッドを非方向性の対話グラフとして表現する。
次に,レーム誘導型階層型グラフ注意ネットワークを提案し,応答性のある投稿の表現学習を強化する。
論文 参考訳(メタデータ) (2021-10-09T09:24:11Z) - Towards Knowledge-Grounded Counter Narrative Generation for Hate Speech [15.039745292757672]
オンラインの憎しみに、インフォームド・テキストによる回答(カウンター・ナラティブと呼ばれる)を使って対処することが、最近注目を浴びている。
現在のニューラルアプローチでは、ジェネリック/反復的な応答が生じる傾向にあり、根拠と最新の証拠が欠如している。
外部知識リポジトリを基盤とした,最初の完全知識結合型カウンターナラティブ生成パイプラインを提示する。
論文 参考訳(メタデータ) (2021-06-22T13:48:49Z) - Multi-View Sequence-to-Sequence Models with Conversational Structure for
Abstractive Dialogue Summarization [72.54873655114844]
テキスト要約は、NLPにおいて最も困難で興味深い問題の1つである。
本研究では、まず、異なる視点から構造化されていない日々のチャットの会話構造を抽出し、会話を表現するマルチビューシーケンス・ツー・シーケンスモデルを提案する。
大規模対話要約コーパスの実験により,本手法は,自動評価と人的判断の両面から,従来の最先端モデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2020-10-04T20:12:44Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。