論文の概要: What Large Language Models Do Not Talk About: An Empirical Study of Moderation and Censorship Practices
- arxiv url: http://arxiv.org/abs/2504.03803v1
- Date: Fri, 04 Apr 2025 09:09:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-08 14:15:47.596763
- Title: What Large Language Models Do Not Talk About: An Empirical Study of Moderation and Censorship Practices
- Title(参考訳): 大規模言語モデルが話さないもの - モデレーションと検閲の実践に関する実証的研究-
- Authors: Sander Noels, Guillaume Bied, Maarten Buyl, Alexander Rogiers, Yousra Fettach, Jefrey Lijffijt, Tijl De Bie,
- Abstract要約: 本研究は,大規模言語モデルが政治的話題に刺激された場合の回答や省略を拒否する程度について検討する。
我々の分析では、西欧諸国、中国、ロシアの14の最先端モデルが、国連(UN)の6つの公式言語すべてで引き起こされている。
- 参考スコア(独自算出の注目度): 46.30336056625582
- License:
- Abstract: Large Language Models (LLMs) are increasingly deployed as gateways to information, yet their content moderation practices remain underexplored. This work investigates the extent to which LLMs refuse to answer or omit information when prompted on political topics. To do so, we distinguish between hard censorship (i.e., generated refusals, error messages, or canned denial responses) and soft censorship (i.e., selective omission or downplaying of key elements), which we identify in LLMs' responses when asked to provide information on a broad range of political figures. Our analysis covers 14 state-of-the-art models from Western countries, China, and Russia, prompted in all six official United Nations (UN) languages. Our analysis suggests that although censorship is observed across the board, it is predominantly tailored to an LLM provider's domestic audience and typically manifests as either hard censorship or soft censorship (though rarely both concurrently). These findings underscore the need for ideological and geographic diversity among publicly available LLMs, and greater transparency in LLM moderation strategies to facilitate informed user choices. All data are made freely available.
- Abstract(参考訳): 大規模言語モデル(LLM)は、情報へのゲートウェイとしてますます多くデプロイされているが、コンテンツモデレーションの実践は未熟である。
この研究は、LLMが政治の話題に刺激されたときの情報に答えることを拒否する程度について調査する。
そのため、我々は、強硬な検閲(すなわち、発生した拒絶、エラーメッセージ、または缶詰された否定応答)とソフトな検閲(すなわち、鍵要素の選択的な省略または無効化)を区別する。
我々の分析では、西欧諸国、中国、ロシアの14の最先端モデルが、国連(UN)の6つの公式言語すべてで引き起こされている。
我々の分析は、検閲は委員会全体で観察されているが、主にLLMプロバイダの国内オーディエンスに合わせたもので、ハード検閲またはソフト検閲(どちらも同時に行われることは稀だが)として現れていることを示唆している。
これらの知見は, LLMにおけるイデオロギー的, 地理的多様性の必要性を浮き彫りにし, ユーザ選択を促進するため, LLMのモデレーション戦略の透明性を高めた。
すべてのデータは無償で利用可能である。
関連論文リスト
- Unpacking Political Bias in Large Language Models: A Cross-Model Comparison on U.S. Politics [6.253258189994455]
人間社会における普遍的な現象としての政治的偏見は、大規模言語モデルに移される可能性がある。
政治バイアスは、モデルスケールとリリース日とともに進化し、LLMの地域要因にも影響される。
論文 参考訳(メタデータ) (2024-12-21T19:42:40Z) - Fact or Fiction? Can LLMs be Reliable Annotators for Political Truths? [2.321323878201932]
政治的誤報は民主的プロセスに挑戦し、世論を形成し、メディアを信頼する。
本研究では,ニュース記事の政治的事実を検出するための信頼性アノテータとして,最先端の大規模言語モデル (LLM) を用いることを検討した。
論文 参考訳(メタデータ) (2024-11-08T18:36:33Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Factuality of Large Language Models: A Survey [29.557596701431827]
我々は、主要な課題とその原因を特定することを目的として、既存の研究を批判的に分析する。
オープンエンドテキスト生成における事実自動評価の障害を解析する。
論文 参考訳(メタデータ) (2024-02-04T09:36:31Z) - LLM Censorship: A Machine Learning Challenge or a Computer Security
Problem? [52.71988102039535]
セマンティック検閲は決定不能な問題として認識できることを示す。
我々は、知識のある攻撃者が不寛容なアウトプットを再構築できるため、これらの課題はセマンティックな検閲を超えて拡張されていると論じる。
論文 参考訳(メタデータ) (2023-07-20T09:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。