論文の概要: Embedding-based Approaches to Hyperpartisan News Detection
- arxiv url: http://arxiv.org/abs/2501.01370v2
- Date: Fri, 27 Jun 2025 06:38:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 15:06:57.445611
- Title: Embedding-based Approaches to Hyperpartisan News Detection
- Title(参考訳): 埋め込みに基づく超党派ニュース検出へのアプローチ
- Authors: Karthik Mohan, Pengyu Chen,
- Abstract要約: 過党派ニュース(Hyperpartisan news)は、国民に政治的分裂を起こそうとする極端に分極的な政治的立場をとるニュースである。
両方向LSTMを用いた事前学習ELMoを用いた最適システムは,10倍のクロスバリデーションで83%の精度を実現した。
- 参考スコア(独自算出の注目度): 6.522338519818378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we describe our systems in which the objective is to determine whether a given news article could be considered as hyperpartisan. Hyperpartisan news is news that takes an extremely polarized political standpoint with an intention of creating political divide among the public. We attempted several approaches, including n-grams, sentiment analysis, as well as sentence and document representation using pre-tained ELMo. Our best system using pre-trained ELMo with Bidirectional LSTM achieved an accuracy of 83% through 10-fold cross-validation without much hyperparameter tuning.
- Abstract(参考訳): 本稿では,あるニュース記事が過党派とみなすことができるかどうかを判断するシステムについて述べる。
過党派ニュース(Hyperpartisan news)は、国民に政治的分裂を起こそうとする極端に分極的な政治的立場をとるニュースである。
我々は,n-grams,感情分析,文表現,文書表現など,既設のELMoを用いたいくつかの手法を試みた。
両方向LSTMによる事前学習ELMoを用いた最適システムは,高パラメータチューニングを伴わずに10倍のクロスバリデーションで83%の精度を実現した。
関連論文リスト
- Democratic or Authoritarian? Probing a New Dimension of Political Biases in Large Language Models [72.89977583150748]
本研究では,大規模言語モデルとより広い地政学的価値システムとの整合性を評価する新しい手法を提案する。
LLMは一般的に民主的価値観や指導者を好んでいるが、マンダリンでの権威主義的人物に対する好意が増している。
論文 参考訳(メタデータ) (2025-06-15T07:52:07Z) - BiasLab: Toward Explainable Political Bias Detection with Dual-Axis Annotations and Rationale Indicators [0.0]
BiasLabは、イデオロギー的偏見を意識した300の政治ニュース記事のデータセットである。
各記事は2つの独立したスケールでクラウドワーカーによってラベル付けされ、民主党と共和党に対する感情を評価している。
我々は、アノテータ間の合意を定量化し、ソースレベルの出口バイアスによる誤調整を分析し、その結果のラベルを解釈可能なサブセットに整理する。
論文 参考訳(メタデータ) (2025-05-21T23:50:42Z) - Navigating Nuance: In Quest for Political Truth [1.4127714091330967]
メディアバイアス識別ベンチマーク(MBIB)を用いたLlama-3(70B)言語モデルの性能評価を行った。
本研究は、政治的偏見を検出することの課題と、将来のモデルを強化するための伝達学習手法の可能性を強調した。
論文 参考訳(メタデータ) (2025-01-01T09:24:47Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - DocNet: Semantic Structure in Inductive Bias Detection Models [0.4779196219827508]
本稿では,新しい,インダクティブで低リソースなドキュメント埋め込みと政治的バイアス検出モデルであるDocNetを紹介する。
文書レベルのグラフ埋め込みに代表される、対立する政治的側からのニュース記事の意味的構造は、大きな類似性を持っていることを実証する。
論文 参考訳(メタデータ) (2024-06-16T14:51:12Z) - Large Language Models (LLMs) as Agents for Augmented Democracy [6.491009626125319]
我々は、市民の嗜好に関するデータを増やすために、既成のLLMを微調整した拡張民主主義システムについて検討する。
被験者の個人の政治的選択と参加者の全サンプルの集合的選好の両方をLLMが予測する精度を推定するために、列車試験のクロスバリデーション・セットアップを使用する。
論文 参考訳(メタデータ) (2024-05-06T13:23:57Z) - Preference Fine-Tuning of LLMs Should Leverage Suboptimal, On-Policy Data [102.16105233826917]
好みラベルからの学習は、微調整された大きな言語モデルにおいて重要な役割を果たす。
好みの微調整には、教師付き学習、オンライン強化学習(RL)、コントラスト学習など、いくつかの異なるアプローチがある。
論文 参考訳(メタデータ) (2024-04-22T17:20:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - All Things Considered: Detecting Partisan Events from News Media with
Cross-Article Comparison [19.328425822355378]
我々は,ニュース記事のイデオロギーを予測するための潜在変数ベースのフレームワークを開発する。
以上の結果から,主観性や非党派的傾向が強い主流メディアにおいても,メディアバイアスのレベルが高いことが明らかとなった。
論文 参考訳(メタデータ) (2023-10-28T21:53:23Z) - Voting Booklet Bias: Stance Detection in Swiss Federal Communication [0.0]
我々は最近のスタンス検出手法を用いて、有権者のための公式情報ブックレットにおける文のスタンス(例えば、反対か中立か)を研究する。
私たちの主な目標は、基本的な質問に答えることです。
本研究は,今後の投票帳簿の編集プロセスと,政治談話分析のためのより良い自動システムの設計に影響を及ぼすものである。
論文 参考訳(メタデータ) (2023-06-15T09:49:12Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Computational Assessment of Hyperpartisanship in News Titles [55.92100606666497]
われわれはまず、超党派ニュースタイトル検出のための新しいデータセットを開発するために、人間の誘導する機械学習フレームワークを採用する。
全体的に右派メディアは比例的に超党派的なタイトルを使う傾向にある。
我々は、外国問題、政治システム、ニュースタイトルにおける過党主義を示唆する社会問題を含む3つの主要なトピックを識別する。
論文 参考訳(メタデータ) (2023-01-16T05:56:58Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - A Machine Learning Pipeline to Examine Political Bias with Congressional
Speeches [0.3062386594262859]
私たちは、2つのイデオロギー的に多様なソーシャルメディアフォーラム、GabとTwitterで、政治的偏見を研究するための機械学習アプローチを提供します。
提案手法は,米国議会の政治演説から収集したテキストを用いて,そのデータをラベル付けする手法である。
また、カスケードとテキストの特徴を組み合わせて、カスケードの政治的偏見を約85%の精度で予測する機械学習アプローチを提案する。
論文 参考訳(メタデータ) (2021-09-18T21:15:21Z) - Mundus vult decipi, ergo decipiatur: Visual Communication of Uncertainty
in Election Polls [56.8172499765118]
我々は、今放送と予測におけるバイアスの潜在的な源について論じる。
概念は、誤認識された正確性の問題を軽減するために提示される。
主要なアイデアの1つは、パーティーシェアではなくイベントの確率を使うことである。
論文 参考訳(メタデータ) (2021-04-28T07:02:24Z) - Mitigating Media Bias through Neutral Article Generation [39.29914845102368]
既存の緩和作業は、複数のニュースアウトレットからの記事を表示し、多様なニュースカバレッジを提供しますが、表示された各記事に固有のバイアスを中和しません。
我々は,複数の偏りのある記事から単一の中性化記事を生成する新しいタスクを提案し,バランスのとれた情報や偏りのない情報へのアクセスをより効率的にする。
論文 参考訳(メタデータ) (2021-04-01T08:37:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。