論文の概要: Geopolitical Parallax: Beyond Walter Lippmann Just After Large Language Models
- arxiv url: http://arxiv.org/abs/2508.19492v1
- Date: Wed, 27 Aug 2025 00:39:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.455302
- Title: Geopolitical Parallax: Beyond Walter Lippmann Just After Large Language Models
- Title(参考訳): 地政学のパララックス:ウォルター・リップマンを超越した大規模言語モデル
- Authors: Mehmet Can Yavuz, Humza Gohar Kabir, Aylin Özkan,
- Abstract要約: 本研究では,ニュース品質と主観性評価における地政学的パララックス・システム的差異について検討する。
我々は,中国オリジン(Qwen,BGE,Jina)と西オリジン(Snowflake,Granite)モデルファミリーの商品レベルの埋め込みを比較した。
以上より, モデル起源と整合性, 非ランダムな相違がみられた。
- 参考スコア(独自算出の注目度): 0.06372261626436676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objectivity in journalism has long been contested, oscillating between ideals of neutral, fact-based reporting and the inevitability of subjective framing. With the advent of large language models (LLMs), these tensions are now mediated by algorithmic systems whose training data and design choices may themselves embed cultural or ideological biases. This study investigates geopolitical parallax-systematic divergence in news quality and subjectivity assessments-by comparing article-level embeddings from Chinese-origin (Qwen, BGE, Jina) and Western-origin (Snowflake, Granite) model families. We evaluate both on a human-annotated news quality benchmark spanning fifteen stylistic, informational, and affective dimensions, and on parallel corpora covering politically sensitive topics, including Palestine and reciprocal China-United States coverage. Using logistic regression probes and matched-topic evaluation, we quantify per-metric differences in predicted positive-class probabilities between model families. Our findings reveal consistent, non-random divergences aligned with model origin. In Palestine-related coverage, Western models assign higher subjectivity and positive emotion scores, while Chinese models emphasize novelty and descriptiveness. Cross-topic analysis shows asymmetries in structural quality metrics Chinese-on-US scoring notably lower in fluency, conciseness, technicality, and overall quality-contrasted by higher negative emotion scores. These patterns align with media bias theory and our distinction between semantic, emotional, and relational subjectivity, and extend LLM bias literature by showing that geopolitical framing effects persist in downstream quality assessment tasks. We conclude that LLM-based media evaluation pipelines require cultural calibration to avoid conflating content differences with model-induced bias.
- Abstract(参考訳): ジャーナリズムにおける客観性は、中立的で事実に基づく報告の理想と主観的フレーミングの不可避性の間で、長い間議論されてきた。
大規模言語モデル(LLM)の出現に伴い、これらの緊張は、現在、トレーニングデータと設計選択が文化的またはイデオロギー的バイアスを埋め込むアルゴリズムシステムによって仲介されている。
本研究では,中国オリジン (Qwen, BGE, Jina) と西オリジン (Snowflake, Granite) モデルファミリーによる記事レベルの埋め込みを比較検討し, ニュース品質と主観性評価における地政学的パララックス・システム的差異について検討した。
我々は,15のスタイリスティック,情報的,情緒的次元にまたがる人称注釈付きニュース品質ベンチマークと,パレスチナや互恵的な日米報道を含む政治的に敏感な話題をカバーする並列コーパスについて評価した。
ロジスティック回帰プローブとマッチングトピー評価を用いて、モデルファミリー間の予測正のクラス確率のメトリクスごとの差を定量化する。
以上より, モデル起源と整合性, 非ランダムな相違がみられた。
パレスチナ関連の報道では、西洋モデルはより高い主観性と肯定的な感情スコアを割り当て、中国モデルは新鮮さと記述性を強調している。
クロストピック分析では、中国-米国間の構造的品質指標の対称性が、高い負の感情スコアによって比較される、流布度、簡潔さ、技術性、全体的な品質に顕著に低下していることが示されている。
これらのパターンはメディアバイアス理論やセマンティック、感情、関係主観性の区別と一致し、下流品質評価タスクにおいて地政学的フレーミング効果が持続することを示し、LLMバイアス文学を拡張する。
我々は, LLMを用いたメディア評価パイプラインは, モデル誘起バイアスによるコンテンツ差の混和を回避するために, 文化的キャリブレーションを必要とすると結論付けた。
関連論文リスト
- BIPOLAR: Polarization-based granular framework for LLM bias evaluation [0.0]
本研究では,大規模言語モデルにおける偏光関連バイアスを評価するために,再利用性,粒度,トピックに依存しないフレームワークを提案する。
我々のアプローチは、偏極感性感情メトリクスと、競合関連文の合成的に生成されたバランスの取れたデータセットを組み合わせる。
ケーススタディでは、ロシアとウクライナの戦争に焦点を当てた合成データセットを作成し、いくつかのLSMのバイアスを評価した。
論文 参考訳(メタデータ) (2025-08-14T20:44:19Z) - Geopolitical biases in LLMs: what are the "good" and the "bad" countries according to contemporary language models [52.00270888041742]
我々は、中立なイベント記述と異なる国からの視点を対比した新しいデータセットを導入する。
以上の結果から,特定の民族的物語のモデルが好まれる,重要な地政学的偏見がみられた。
単純なデバイアスのプロンプトはこれらのバイアスを減らすのに限られた効果があった。
論文 参考訳(メタデータ) (2025-06-07T10:45:17Z) - Mapping Geopolitical Bias in 11 Large Language Models: A Bilingual, Dual-Framing Analysis of U.S.-China Tensions [2.8202443616982884]
本研究は,11大言語モデル(LLM)における地政学的バイアスを系統的に解析する。
モデル出力のイデオロギー的傾きを検出するために,19,712個のプロンプトを作成した。
米国をベースとしたモデルは、主に米国支持の姿勢を好んでおり、一方中国のモデルでは、中国支持の偏見が顕著であった。
論文 参考訳(メタデータ) (2025-03-31T03:38:17Z) - Echoes of Power: Investigating Geopolitical Bias in US and China Large Language Models [2.1028463367241033]
米国と中国の大規模言語モデル(LLM)における地政学的バイアスについて検討する。
両モデルに顕著なバイアスがみられ,イデオロギー的な視点と文化的影響が反映された。
この研究は、LLMが公的な談話を形成する可能性を強調し、AI生成コンテンツを批判的に評価することの重要性を強調している。
論文 参考訳(メタデータ) (2025-03-20T19:53:10Z) - BiasConnect: Investigating Bias Interactions in Text-to-Image Models [73.76853483463836]
テキスト・ツー・イメージ・モデルにおけるバイアス相互作用の分析と定量化を目的とした新しいツールであるBiasConnectを紹介する。
我々の手法は、与えられたバイアスが修正されたとき、他のバイアス次元が理想的な分布に向かって、あるいは離れてどのように変化するかを示す経験的推定を提供する。
本稿では,最適なバイアス緩和軸の選択,学習する依存関係の異なるTTIモデルの比較,およびTTIモデルにおける交叉社会的バイアスの増幅を理解するためのBiasConnectの有用性を示す。
論文 参考訳(メタデータ) (2025-03-12T19:01:41Z) - Beyond Partisan Leaning: A Comparative Analysis of Political Bias in Large Language Models [6.549047699071195]
本研究では、大規模言語モデルにおける政治的行動を評価するために、ペルソナフリーでトピック固有のアプローチを採用する。
米国、ヨーロッパ、中国、中東で開発された43の大規模言語モデルからの反応を分析した。
発見は、ほとんどのモデルが中心左あるいは左イデオロギー的にリーンであり、非党派的エンゲージメントパターンが異なることを示している。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Political Bias in LLMs: Unaligned Moral Values in Agent-centric Simulations [0.0]
モーラル・ファンデーション理論アンケートにおいて,パーソナライズされた言語モデルと人間の反応がどのように一致しているかを検討する。
我々は、オープンソースの生成言語モデルを異なる政治的ペルソナに適応させ、これらのモデルを繰り返し調査し、合成データセットを生成する。
解析の結果,モデルが複数の繰り返しにまたがって不整合な結果をもたらし,高い応答差が生じることがわかった。
論文 参考訳(メタデータ) (2024-08-21T08:20:41Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。