論文の概要: Apolitical Intelligence? Auditing Delphi's responses on controversial
political issues in the US
- arxiv url: http://arxiv.org/abs/2306.13000v1
- Date: Thu, 22 Jun 2023 15:56:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 13:46:18.068933
- Title: Apolitical Intelligence? Auditing Delphi's responses on controversial
political issues in the US
- Title(参考訳): 政治情報?
デルファイ氏の米政治問題に対する対応を監査
- Authors: Jonathan H. Rystr{\o}m
- Abstract要約: 私はクラウドソース倫理のために設計された大規模言語モデルであるDelphiの監査を通じて中立性を調べます。
デルフィは自信に乏しく、政治的に重大な歪みを見せている。
データフェミニストレンズによる中立性の問題について、中立性の概念がいかにパワーをシフトさせ、不審な声を余分に減らすかという観点から検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As generative language models are deployed in ever-wider contexts, concerns
about their political values have come to the forefront with critique from all
parts of the political spectrum that the models are biased and lack neutrality.
However, the question of what neutrality is and whether it is desirable remains
underexplored. In this paper, I examine neutrality through an audit of Delphi
[arXiv:2110.07574], a large language model designed for crowdsourced ethics. I
analyse how Delphi responds to politically controversial questions compared to
different US political subgroups. I find that Delphi is poorly calibrated with
respect to confidence and exhibits a significant political skew. Based on these
results, I examine the question of neutrality from a data-feminist lens, in
terms of how notions of neutrality shift power and further marginalise unheard
voices. These findings can hopefully contribute to a more reflexive debate
about the normative questions of alignment and what role we want generative
models to play in society.
- Abstract(参考訳): 生成言語モデルは、より広範に展開されるため、その政治的価値に対する懸念は、モデルがバイアスを受け、中立性が欠如しているという政治的スペクトルのあらゆる部分からの批判で最前線に現れている。
しかし、中立性とそれが望ましいかどうかという問題は未検討のままである。
本稿では,クラウドソースの倫理のために設計された大規模言語モデルである delphi [arxiv:2110.07574] の監査を通して,中立性を検討する。
私は、delphiが政治的に議論された質問に対して、米国の異なる政治サブグループに対してどのように反応するかを分析します。
デルポイは信頼感に欠けており、政治的に大きな偏りがあると思います。
これらの結果から,データフェミニストレンズの中立性に関する問題を,中立性の概念がいかにパワーをシフトさせ,さらに無音音声を疎外するかという観点から検討する。
これらの発見は、アライメントの規範的問題と、社会における生成モデルの役割について、より反射的な議論に寄与することを期待している。
関連論文リスト
- When Neutral Summaries are not that Neutral: Quantifying Political Neutrality in LLM-Generated News Summaries [0.0]
本研究では, LLMの政治的中立性を定量化するための新たな視点を示す。
我々は、中絶、銃規制/権利、医療、移民、LGBTQ+の権利という、現在のアメリカの政治における5つの迫る問題について検討する。
我々の研究は、いくつかのよく知られたLLMにおいて、民主的偏見に対する一貫した傾向を明らかにした。
論文 参考訳(メタデータ) (2024-10-13T19:44:39Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Who Would Chatbots Vote For? Political Preferences of ChatGPT and Gemini in the 2024 European Union Elections [0.0]
この研究は、これらの生成人工知能(AI)システムにより、27のEU加盟国にまたがる欧州議会で代表される政党の評価に焦点を当てた。
Geminiはほとんど政治的な質問に答えることを拒んだが、ChatGPTは一貫して評価した。
調査では、欧州統合に対する態度や民主的価値観に対する認識など、評価に影響を及ぼす重要な要因を特定した。
論文 参考訳(メタデータ) (2024-09-01T13:40:13Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - Political Compass or Spinning Arrow? Towards More Meaningful Evaluations for Values and Opinions in Large Language Models [61.45529177682614]
我々は,大規模言語モデルにおける価値と意見の制約評価パラダイムに挑戦する。
強制されない場合、モデルが実質的に異なる答えを与えることを示す。
我々はこれらの知見をLLMの価値と意見を評価するための推奨とオープンな課題に抽出する。
論文 参考訳(メタデータ) (2024-02-26T18:00:49Z) - Whose Emotions and Moral Sentiments Do Language Models Reflect? [5.4547979989237225]
言語モデル(LM)は、ある社会集団の視点を他のグループよりも良く表現することが知られている。
両イデオロギー群とLMの相違点が有意である。
特定のイデオロギー的な視点でLMを操った後も、モデルのミスアライメントとリベラルな傾向は持続する。
論文 参考訳(メタデータ) (2024-02-16T22:34:53Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Moral consensus and divergence in partisan language use [0.0]
政治的議論では分極化が著しく増加し、党派分裂の拡大に寄与した。
我々はRedditコミュニティやニュースメディアで大規模で現実的な言語の使用を分析し、パルチザン言語を分割した心理的次元を明らかにする。
論文 参考訳(メタデータ) (2023-10-14T16:50:26Z) - Whose Opinions Do Language Models Reflect? [88.35520051971538]
質の高い世論調査と関連する人的反応を利用して,言語モデル(LM)に反映された意見を検討する。
我々は、現在のLMが反映している見解と、アメリカの人口集団の見解の間にかなりの不一致を見出した。
我々の分析は、人間のフィードバック調整されたLMの左利き傾向に関する事前の観察を裏付けるものである。
論文 参考訳(メタデータ) (2023-03-30T17:17:08Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Reaching the bubble may not be enough: news media role in online
political polarization [58.720142291102135]
分極を減らす方法は、異なる政治的指向を持つ個人に党間のニュースを分配することである。
本研究は、ブラジルとカナダにおける全国選挙の文脈において、これが成立するかどうかを考察する。
論文 参考訳(メタデータ) (2021-09-18T11:34:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。