論文の概要: No comments: Addressing commentary sections in websites' analyses
- arxiv url: http://arxiv.org/abs/2104.09113v1
- Date: Mon, 19 Apr 2021 08:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:03:40.663561
- Title: No comments: Addressing commentary sections in websites' analyses
- Title(参考訳): コメントなし:ウェブサイトの分析におけるコメントセクションへの対処
- Authors: Florian Cafiero, Paul Guille-Escuret, Jeremy Ward
- Abstract要約: これらのコメントセクションは、ウェブサイトのコンテンツの分析に重大なバイアスを引き起こす可能性があることを示しています。
これらのセクションを削除または抽出するためのガイドラインを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Removing or extracting the commentary sections from a series of websites is a
tedious task, as no standard way to code them is widely adopted. This operation
is thus very rarely performed. In this paper, we show that these commentary
sections can induce significant biases in the analyses, especially in the case
of controversial Highlights $\bullet$ Commentary sections can induce biases in
the analysis of websites' contents $\bullet$ Analyzing these sections can be
interesting per se. $\bullet$ We illustrate these points using a corpus of
anti-vaccine websites. $\bullet$ We provide guidelines to remove or extract
these sections.
- Abstract(参考訳): 一連のウェブサイトから注釈セクションを削除または抽出することは面倒な作業であり、コーディングの標準的な方法が広く採用されていない。
この操作はめったに行われない。
本稿では,これらのコメントセクションが分析において有意なバイアスを生じさせることを示す。特に議論の的となっているHighlights $\bullet$ Commentaryセクションは,ウェブサイトの内容の分析においてバイアスを誘発することができる。
$\bullet$これらのポイントは、抗ワクチンウェブサイトのコーパスを使って説明します。
$\bullet$ これらのセクションを削除または抽出するためのガイドラインを提供します。
関連論文リスト
- Evaluating the Factuality of Zero-shot Summarizers Across Varied Domains [60.5207173547769]
バイオメディカル・アーティクルや法定請求書を含む専門分野におけるゼロショット生成サマリーを評価した。
ドメインの専門家からアノテーションを取得し、要約の不整合を識別し、これらのエラーを体系的に分類する。
収集したすべてのアノテーションを公開し、ニュース記事を超えて、事実的に正確な要約を計測および実現するためのさらなる研究を促進する。
論文 参考訳(メタデータ) (2024-02-05T20:51:11Z) - Document-Level Supervision for Multi-Aspect Sentiment Analysis Without
Fine-grained Labels [14.187425779776204]
本稿では,文書レベルの監視を用いてABSAを実行するVAEベースのトピックモデリング手法を提案する。
この手法により、文書内の複数の側面を検知し、複数の側面を通して表現された感情がどのように集まって、観察可能な文書レベルの感情を形成するのかを推論することが可能になる。
論文 参考訳(メタデータ) (2023-10-10T18:53:21Z) - ReAct: A Review Comment Dataset for Actionability (and more) [0.8885727065823155]
注釈付きレビューコメントデータセットReActを紹介する。
レビューコメントはOpenReviewのサイトから引用されている。
これらのレビューのためのアノテーションをクラウドソースで公開しています。
論文 参考訳(メタデータ) (2022-10-02T07:09:38Z) - Tradeoffs in Preventing Manipulation in Paper Bidding for Reviewer
Assignment [89.38213318211731]
入札の利点にもかかわらず、紙入札への依存は、悪意のあるレビュアーが非倫理的な目的のために紙の割り当てを操作できるようにする。
この操作を防ぐためのいくつかの異なるアプローチが提案され、デプロイされている。
本稿では,入札操作に対処するアルゴリズムが満足すべき特定の望ましい特性を列挙する。
論文 参考訳(メタデータ) (2022-07-22T19:58:17Z) - A Dataset on Malicious Paper Bidding in Peer Review [84.68308372858755]
悪意あるレビュアーは、紙の割り当てを非倫理的に操作するために戦略的に入札した。
この問題を緩和するための方法の作成と評価への重要な障害は、悪意ある紙入札に関する公開データの欠如である。
我々は、参加者に正直に、悪意的に入札するよう指示されたモックカンファレンス活動から収集された、新しいデータセットをリリースする。
論文 参考訳(メタデータ) (2022-06-24T20:23:33Z) - Learning Opinion Summarizers by Selecting Informative Reviews [81.47506952645564]
31,000以上の製品のユーザレビューと組み合わせた大規模な要約データセットを収集し、教師付きトレーニングを可能にします。
多くのレビューの内容は、人間が書いた要約には反映されず、したがってランダムなレビューサブセットで訓練された要約者は幻覚する。
我々は、これらのサブセットで表現された意見を要約し、レビューの情報的サブセットを選択するための共同学習としてタスクを定式化する。
論文 参考訳(メタデータ) (2021-09-09T15:01:43Z) - What's in the Box? An Analysis of Undesirable Content in the Common
Crawl Corpus [77.34726150561087]
言語モデルの訓練に広く使用されるコロッサルwebコーパスであるcommon crawlを分析した。
ヘイトスピーチや性的明示的なコンテンツなど、フィルタリング処理後も、好ましくないコンテンツがかなりの量含まれていることがわかりました。
論文 参考訳(メタデータ) (2021-05-06T14:49:43Z) - A Multi-modal Approach to Fine-grained Opinion Mining on Video Reviews [47.726065950436585]
本稿では,ビデオレビューから詳細な意見をマイニングするためのマルチモーダル手法を提案する。
私たちのアプローチは、時間アノテーションを必要とせずに、文レベルで機能します。
論文 参考訳(メタデータ) (2020-05-27T13:46:11Z) - How Useful are Reviews for Recommendation? A Critical Review and
Potential Improvements [8.471274313213092]
本稿では,レビューテキストを用いてレコメンデーションシステムの改善を目指す,新たな作業体系について検討する。
実験条件やデータ前処理に変化はあるものの, 論文間で結果がコピーされていることから, 報告結果にいくつかの相違点がみられた。
さらなる調査では、リコメンデーションのためのユーザレビューの"重要"に関して、はるかに大きな問題に関する議論が求められている。
論文 参考訳(メタデータ) (2020-05-25T16:30:05Z) - Towards Detection of Subjective Bias using Contextualized Word
Embeddings [9.475039534437332]
Wiki Neutrality Corpus(WNC)を用いたBERTモデルを用いた主観バイアス検出実験を行った。
データセットは、ウィキペディアの編集から360万ドルのラベル付きインスタンスで構成され、バイアスのさまざまなインスタンスを削除する。
論文 参考訳(メタデータ) (2020-02-16T18:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。