論文の概要: Can LLMs advance democratic values?
- arxiv url: http://arxiv.org/abs/2410.08418v1
- Date: Thu, 17 Oct 2024 22:04:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 03:26:42.324627
- Title: Can LLMs advance democratic values?
- Title(参考訳): LLMは民主的価値を前進させることができるか?
- Authors: Seth Lazar, Lorenzo Manuali,
- Abstract要約: LLMは、形式的な民主的意思決定プロセスから明確に守るべきである、と我々は主張する。
非公式な公共の場を強化するのに役立てることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs are among the most advanced tools ever devised for analysing and generating linguistic content. Democratic deliberation and decision-making involve, at several distinct stages, the production and analysis of language. So it is natural to ask whether our best tools for manipulating language might prove instrumental to one of our most important linguistic tasks. Researchers and practitioners have recently asked whether LLMs can support democratic deliberation by leveraging abilities to summarise content, as well as to aggregate opinion over summarised content, and indeed to represent voters by predicting their preferences over unseen choices. In this paper, we assess whether using LLMs to perform these and related functions really advances the democratic values that inspire these experiments. We suggest that the record is decidedly mixed. In the presence of background inequality of power and resources, as well as deep moral and political disagreement, we should be careful not to use LLMs in ways that automate non-instrumentally valuable components of the democratic process, or else threaten to supplant fair and transparent decision-making procedures that are necessary to reconcile competing interests and values. However, while we argue that LLMs should be kept well clear of formal democratic decision-making processes, we think that they can be put to good use in strengthening the informal public sphere: the arena that mediates between democratic governments and the polities that they serve, in which political communities seek information, form civic publics, and hold their leaders to account.
- Abstract(参考訳): LLMは、言語コンテンツの解析と生成のために考案された最も高度なツールの1つである。
民主的熟考と意思決定は、いくつかの異なる段階において、言語の生産と分析を含む。
したがって、言語を操作するための最良のツールが、我々の最も重要な言語課題の1つに役立つかどうかを問うのは当然です。
研究者や実践者は近年、LLMがコンテンツを要約する能力を活用して民主的熟考を支援することができるかどうかを問うとともに、要約されたコンテンツに対する意見を集約し、実際は、見当たらない選択よりも自分の好みを予測することによって有権者を代表できるかどうかを問うている。
本稿では,LSMを用いてこれらの機能を実行することが,これらの実験を刺激する民主的価値を実際に向上させるかどうかを評価する。
我々はその記録が明らかに混ざっていることを示唆している。
権力・資源の背景的不平等や深い道徳的・政治的不一致がある場合には、民主的プロセスの非実質的な価値あるコンポーネントを自動化したり、あるいは競合する利益や価値観の調整に必要な公正かつ透明な意思決定手順に取って代わることを脅かすような方法でLLMを使わないよう注意する必要がある。
しかし、我々は、LLMは形式的な民主的な意思決定プロセスから明確に守られるべきだと論じる一方で、民主的な政府と彼らが奉仕する国家間の仲介場、すなわち政治コミュニティが情報を求め、市民を形成し、指導者が責任を負う場、という非公式な公共領域の強化に有効であると考える。
関連論文リスト
- Large Language Models in Politics and Democracy: A Comprehensive Survey [0.0]
大規模言語モデル(LLM)は、政策作成、政治コミュニケーション、分析、ガバナンスなど、様々な分野に可能性を提供する。
LLMは、政治プロセスにおける効率性、傾倒性、意思決定を向上させる機会を提供する。
また、バイアス、透明性、説明責任に関する課題も提示する。
論文 参考訳(メタデータ) (2024-12-01T15:23:34Z) - NewsInterview: a Dataset and a Playground to Evaluate LLMs' Ground Gap via Informational Interviews [65.35458530702442]
我々はジャーナリストのインタビューに焦点をあて、コミュニケーションの基盤と豊富なデータに富んだドメインに焦点をあてる。
我々はNPRとCNNから4万人の2人によるインフォメーションインタビューのデータセットをキュレートする。
LLMは、人間のインタビュアーよりも、認識を使い、より高いレベルの質問に目を向ける可能性がはるかに低い。
論文 参考訳(メタデータ) (2024-11-21T01:37:38Z) - Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - Fact or Fiction? Can LLMs be Reliable Annotators for Political Truths? [2.321323878201932]
政治的誤報は民主的プロセスに挑戦し、世論を形成し、メディアを信頼する。
本研究では,ニュース記事の政治的事実を検出するための信頼性アノテータとして,最先端の大規模言語モデル (LLM) を用いることを検討した。
論文 参考訳(メタデータ) (2024-11-08T18:36:33Z) - Large Language Models Reflect the Ideology of their Creators [71.65505524599888]
大規模言語モデル(LLM)は、自然言語を生成するために大量のデータに基づいて訓練される。
本稿では, LLMのイデオロギー的姿勢が創造者の世界観を反映していることを示す。
論文 参考訳(メタデータ) (2024-10-24T04:02:30Z) - GermanPartiesQA: Benchmarking Commercial Large Language Models for Political Bias and Sycophancy [20.06753067241866]
我々は,OpenAI, Anthropic, Cohereの6つのLDMのアライメントをドイツ政党の立場と比較した。
我々は、主要なドイツの国会議員のベンチマークデータと社会デマグラフィーデータを用いて、迅速な実験を行う。
論文 参考訳(メタデータ) (2024-07-25T13:04:25Z) - Assessing Political Bias in Large Language Models [0.624709220163167]
我々は、ドイツの有権者の視点から、欧州連合(EU)内の政治問題に関するオープンソースのLarge Language Models(LLMs)の政治的バイアスを評価する。
Llama3-70Bのような大型モデルは、左派政党とより緊密に連携する傾向にあるが、小さなモデルは中立であることが多い。
論文 参考訳(メタデータ) (2024-05-17T15:30:18Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - How should the advent of large language models affect the practice of
science? [51.62881233954798]
大規模言語モデルの出現は科学の実践にどのように影響を与えるべきか?
我々は4つの科学者グループを招待し、この質問を反映し、彼らの見解を共有し、議論をおこなった。
論文 参考訳(メタデータ) (2023-12-05T10:45:12Z) - The ART of LLM Refinement: Ask, Refine, and Trust [85.75059530612882]
ART: Ask, Refine, and Trust と呼ばれる改良目標を用いた推論を提案する。
LLMがいつその出力を洗練すべきかを決めるために必要な質問を尋ねる。
自己補充ベースラインよりも+5ポイントの性能向上を達成する。
論文 参考訳(メタデータ) (2023-11-14T07:26:32Z) - Vox Populi, Vox ChatGPT: Large Language Models, Education and Democracy [0.0]
本稿では,民主主義社会における大規模言語モデル(LLM)の変革的影響について考察する。
この議論は著者の本質を強調しており、理性に特有の人間の能力に根ざしている。
我々はリスクを軽減する手段として教育に重点を置くことを提唱する。
論文 参考訳(メタデータ) (2023-11-10T17:47:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。