論文の概要: WikiReddit: Tracing Information and Attention Flows Between Online Platforms
- arxiv url: http://arxiv.org/abs/2502.04942v1
- Date: Fri, 07 Feb 2025 14:03:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:56:42.058789
- Title: WikiReddit: Tracing Information and Attention Flows Between Online Platforms
- Title(参考訳): WikiReddit:オンラインプラットフォーム間の情報と注意の流れの追跡
- Authors: Patrick Gildersleve, Anna Beers, Viviane Ito, Agustin Orozco, Francesca Tripodi,
- Abstract要約: このデータセットは、2020年から2023年までRedditで投稿やコメントで共有されたすべてのウィキペディアリンクをキャプチャする。
Redditとのリサーチ契約を通じて、私たちのデータセットは、RedditとWikipedia APIを統合したクエリとIDメカニズムを提供しながら、ユーザのプライバシを保証する。
これらのプラットフォーム上で共有された情報と議論された情報の関係を分析することで、我々のデータセットは、ソーシャルメディアの談話と協調的な知識消費と生産との相互作用を調べる基盤を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The World Wide Web is a complex interconnected digital ecosystem, where information and attention flow between platforms and communities throughout the globe. These interactions co-construct how we understand the world, reflecting and shaping public discourse. Unfortunately, researchers often struggle to understand how information circulates and evolves across the web because platform-specific data is often siloed and restricted by linguistic barriers. To address this gap, we present a comprehensive, multilingual dataset capturing all Wikipedia links shared in posts and comments on Reddit from 2020 to 2023, excluding those from private and NSFW subreddits. Each linked Wikipedia article is enriched with revision history, page view data, article ID, redirects, and Wikidata identifiers. Through a research agreement with Reddit, our dataset ensures user privacy while providing a query and ID mechanism that integrates with the Reddit and Wikipedia APIs. This enables extended analyses for researchers studying how information flows across platforms. For example, Reddit discussions use Wikipedia for deliberation and fact-checking which subsequently influences Wikipedia content, by driving traffic to articles or inspiring edits. By analyzing the relationship between information shared and discussed on these platforms, our dataset provides a foundation for examining the interplay between social media discourse and collaborative knowledge consumption and production.
- Abstract(参考訳): World Wide Webは複雑な相互接続型のデジタルエコシステムであり、世界中のプラットフォームとコミュニティの間で情報と注意の流れが流れている。
これらの相互作用は、私たちの世界を理解する方法を構築し、公衆の言説を反映し形作ります。
残念なことに、研究者はしばしば、プラットフォーム固有のデータが言語的障壁によってサイロ化され制限されるため、情報の循環とWeb上の進化の仕方を理解するのに苦労する。
このギャップに対処するため、2020年から2023年までRedditで投稿やコメントで共有されているすべてのWikipediaリンクを、プライベートおよびNSFWサブレディットを除く総合的かつ多言語で分析するデータセットを提示する。
リンクされたウィキペディアの各記事には、リビジョン履歴、ページビューデータ、記事ID、リダイレクト、ウィキデータ識別子が組み込まれている。
Redditとのリサーチ契約を通じて、私たちのデータセットは、RedditとWikipedia APIを統合したクエリとIDメカニズムを提供しながら、ユーザのプライバシを保証する。
これにより、プラットフォームを横断する情報の流れを研究する研究者のさらなる分析が可能になる。
例えば、Redditの議論ではウィキペディアを議論や事実チェックに用いており、ウィキペディアのコンテンツに影響を与え、記事へのトラフィックを誘導したり、編集を刺激したりしている。
これらのプラットフォーム上で共有された情報と議論された情報の関係を分析することで、我々のデータセットは、ソーシャルメディアの談話と協調的な知識消費と生産との相互作用を調べる基盤を提供する。
関連論文リスト
- Multi-Platform Aggregated Dataset of Online Communities (MADOC) [64.45797970830233]
MADOCはBluesky、Koo、Reddit、Voat(2012-2024)のデータを集め、標準化している。
このデータセットは、標準化されたインタラクション記録と感情分析を通じて、プラットフォーム間の有害な振る舞いの進化の比較研究を可能にする。
論文 参考訳(メタデータ) (2025-01-22T14:02:11Z) - Locating Information Gaps and Narrative Inconsistencies Across Languages: A Case Study of LGBT People Portrayals on Wikipedia [49.80565462746646]
我々は,情報ギャップと矛盾を事実レベルで特定するための,効率的かつ信頼性の高い手法であるInfoGap法を紹介した。
我々は、LGBTの人々の描写を分析してInfoGapを評価し、英語、ロシア語、フランス語のウィキペディアの2.7Kの伝記ページを解析した。
論文 参考訳(メタデータ) (2024-10-05T20:40:49Z) - Exploring Embeddings for Measuring Text Relatedness: Unveiling
Sentiments and Relationships in Online Comments [1.7230140898679147]
本稿では,様々なソーシャルメディアプラットフォームにおけるコメント間の感情的・意味的関係について検討する。
単語の埋め込みを使って文や文書のコンポーネントを分析する。
我々の分析は、オンラインコメントの相互接続性をより深く理解し、大きな相互接続脳として機能するインターネットの概念を調査する。
論文 参考訳(メタデータ) (2023-09-15T04:57:23Z) - Curious Rhythms: Temporal Regularities of Wikipedia Consumption [15.686850035802667]
日中交替のグローバルなパターンを除去した後も,個々の物品の消費習慣は日中変化が強く維持されていることを示す。
我々はウィキペディアの記事のアクセスリズムの話題的・文脈的相関を調査し、記事の話題、読者国、アクセスデバイス(モバイル対デスクトップ)が日々の注意パターンの重要な予測因子であることを示す。
論文 参考訳(メタデータ) (2023-05-16T14:48:08Z) - Wiki-based Communities of Interest: Demographics and Outliers [18.953455338226103]
Wikiの情報源によると、このデータはホワイトハウスコロナウイルスタスクフォースのメンバーなど7.5万のコミュニティをカバーしている。
主観的およびグループ中心のデータセットをフォーマットで、またブラウジングインターフェースとしてリリースします。
論文 参考訳(メタデータ) (2023-03-16T09:58:11Z) - Mapping Process for the Task: Wikidata Statements to Text as Wikipedia
Sentences [68.8204255655161]
本稿では,ウィキデータ文をウィキペディアのプロジェクト用自然言語テキスト(WS2T)に変換するタスクに対して,文レベルでのマッピングプロセスを提案する。
主なステップは、文を整理し、四つ組と三つ組のグループとして表現し、それらを英語のウィキペディアで対応する文にマッピングすることである。
文構造解析,ノイズフィルタリング,および単語埋め込みモデルに基づく文成分間の関係について,出力コーパスの評価を行った。
論文 参考訳(メタデータ) (2022-10-23T08:34:33Z) - Assessing the quality of sources in Wikidata across languages: a hybrid
approach [64.05097584373979]
いくつかの言語でラベルを持つWikidataのトリプルからサンプルした参照コーパスの大規模なコーパスを評価するために,一連のマイクロタスク実験を実施している。
クラウドソースアセスメントの統合されたバージョンを使用して、いくつかの機械学習モデルをトレーニングして、Wikidata全体の分析をスケールアップしています。
この結果はWikidataにおける参照の質の確認に役立ち、ユーザ生成多言語構造化データの品質をWeb上で定義し、取得する際の共通の課題を特定するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-20T10:06:46Z) - Tracking Knowledge Propagation Across Wikipedia Languages [1.8447697408534176]
本稿では,ウィキペディアにおける言語間知識伝達のデータセットについて述べる。
データセットは309の言語版と3300万の記事をカバーしている。
言語版のサイズは伝播速度と関連していることがわかった。
論文 参考訳(メタデータ) (2021-03-30T18:36:13Z) - Multiple Texts as a Limiting Factor in Online Learning: Quantifying
(Dis-)similarities of Knowledge Networks across Languages [60.00219873112454]
ウィキペディアを通して、ある話題に関する情報を入手する程度が、相談される言語に依存するという仮説を考察する。
ウィキペディアはウェブベースの情報ランドスケープの中心的な部分であるため、言語に関する言語的偏見を示している。
この論文は、研究、教育科学、ウィキペディア研究、計算言語学の橋渡しとなっている。
論文 参考訳(メタデータ) (2020-08-05T11:11:55Z) - Echo Chambers on Social Media: A comparative analysis [64.2256216637683]
本研究では,4つのソーシャルメディアプラットフォーム上で100万ユーザが生成した100万個のコンテンツに対して,エコーチャンバーの操作的定義を導入し,大規模な比較分析を行う。
議論の的になっているトピックについてユーザの傾きを推測し、異なる特徴を分析してインタラクションネットワークを再構築する。
我々は、Facebookのようなニュースフィードアルゴリズムを実装するプラットフォームが、エコーチャンバの出現を招きかねないという仮説を支持する。
論文 参考訳(メタデータ) (2020-04-20T20:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。