論文の概要: Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis
- arxiv url: http://arxiv.org/abs/2410.01817v2
- Date: Tue, 22 Jul 2025 16:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:13.758168
- Title: Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis
- Title(参考訳): パブリックバリューを用いたAIのアライメント:政治ビデオ分析におけるマルチモーダルLLMの活用に向けた検討と意思決定
- Authors: Tanusree Sharma, Yujin Potter, Zachary Kilhoffer, Yun Huang, Dawn Song, Yang Wang,
- Abstract要約: AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
- 参考スコア(独自算出の注目度): 48.14390493099495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How AI models should deal with political topics has been discussed, but it remains challenging and requires better governance. This paper examines the governance of large language models through individual and collective deliberation, focusing on politically sensitive videos. We conducted a two-step study: interviews with 10 journalists established a baseline understanding of expert video interpretation; 114 individuals through deliberation using InclusiveAI, a platform that facilitates democratic decision-making through decentralized autonomous organization (DAO) mechanisms. Our findings reveal distinct differences in interpretative priorities: while experts emphasized emotion and narrative, the general public prioritized factual clarity, objectivity, and emotional neutrality. Furthermore, we examined how different governance mechanisms - quadratic vs. weighted voting and equal vs. 20/80 voting power - shape users' decision-making regarding AI behavior. Results indicate that voting methods significantly influence outcomes, with quadratic voting reinforcing perceptions of liberal democracy and political equality. Our study underscores the necessity of selecting appropriate governance mechanisms to better capture user perspectives and suggests decentralized AI governance as a potential way to facilitate broader public engagement in AI development, ensuring that varied perspectives meaningfully inform design decisions.
- Abstract(参考訳): AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
専門的なビデオ解釈のベースライン理解を確立したジャーナリスト10名を対象に,自律分散型組織(DAO)機構による民主的意思決定を支援するプラットフォームであるInclusiveAIを用いた討論を通じて,114名の個人を対象に,2段階にわたる調査を行った。
専門家は感情と物語を強調する一方で、一般大衆は事実の明確さ、客観性、感情の中立性を優先した。
さらに,2次投票と2次投票と2次投票と20/80票との違いが,AI行動に関するユーザの意思決定を形作っているかを検討した。
その結果,2次投票は自由民主主義と政治的平等の認識を補強するものであり,投票方法が結果に大きな影響を及ぼすことが示された。
我々の研究は、ユーザー視点をよりよく捉えるための適切なガバナンスメカニズムを選択することの必要性を強調し、AI開発におけるより広範な公的な関与を促進する潜在的な方法として、分散化されたAIガバナンスを提案する。
関連論文リスト
- Aligning Trustworthy AI with Democracy: A Dual Taxonomy of Opportunities and Risks [26.916552909766118]
本稿では、AIと民主主義の複雑な関係を評価するための二重分類法を提案する。
AIRD分類法は、AIが自律性、公正性、信頼といった中核的な民主主義の原則を台無しにする方法を特定する。
AIPD分類は、透明性、参加、効率、エビデンスに基づく政策決定を強化するAIの可能性を強調している。
論文 参考訳(メタデータ) (2025-05-19T10:51:08Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Measuring Political Preferences in AI Systems: An Integrative Approach [0.0]
この研究は、主要なAIシステムにおける政治的偏見を評価するために、マルチメソッドアプローチを採用する。
その結果、現代のAIシステムでは、一貫した左利きバイアスが示される。
AIシステムにおける組織的な政治的偏見の存在は、視点の多様性の低減、社会的分極の増大、AI技術における公的な不信の可能性などのリスクを引き起こす。
論文 参考訳(メタデータ) (2025-03-04T01:40:28Z) - AI and the Transformation of Accountability and Discretion in Urban Governance [1.9152655229960793]
この研究は洞察を合成し、意思決定プロセスにおける責任あるAI統合のための指針原則を提案する。
分析によると、AIは単に判断を制限したり、強化したりするのではなく、制度レベルで再配布する。
同時に管理の監督を強化し、意思決定の整合性を高め、運用効率を向上させることができる。
論文 参考訳(メタデータ) (2025-02-18T18:11:39Z) - Democratizing AI Governance: Balancing Expertise and Public Participation [1.0878040851638]
人工知能(AI)システムの開発と展開は、その大きな社会的影響とともに、ガバナンスにとって重要な課題を提起している。
本稿では、専門家主導による監視と民主的参加の緊張関係を考察し、参加型と熟考型民主主義のモデルを分析する。
これらのアプローチを欧州連合に合わせたバランスの取れたガバナンスモデルに統合するための勧告が提供されている。
論文 参考訳(メタデータ) (2025-01-16T17:47:33Z) - Digital Democracy in the Age of Artificial Intelligence [0.16385815610837165]
この章では、デジタル民主主義における人工知能(AI)の影響について論じる。
市民権、参加権、代表権、公共の領域の4つに焦点が当てられている。
論文 参考訳(メタデータ) (2024-11-26T10:20:53Z) - Toward Democracy Levels for AI [4.048639768405042]
我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Generative AI Voting: Fair Collective Choice is Resilient to LLM Biases and Inconsistencies [21.444936180683147]
我々は、現実世界で初めて、直接民主主義における有権者の比例代表を示す。
また、平等な共有のような公正な投票集約手法は、より公平なAI表現を持つ人間に対するより公平な投票結果であることを示す。
論文 参考訳(メタデータ) (2024-05-31T01:41:48Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Key Factors Affecting European Reactions to AI in European Full and
Flawed Democracies [1.104960878651584]
本研究では、ヨーロッパにおける完全な民主主義と欠陥のある民主主義の文脈において、人工知能(AI)に対する欧州の反応に影響を与える重要な要因について検討する。
欠陥のある民主主義は、完全な民主主義において、政府の機関に対する信頼度が高い傾向にあることが観察された。
欠陥のある民主主義に居住する個人は、完全な民主主義の回答者と比較して、AIに対してより肯定的な態度を示す。
論文 参考訳(メタデータ) (2023-10-04T22:11:28Z) - Generative Social Choice [31.99162448662916]
オープンエンドの民主的プロセスの設計手法である生成的社会的選択を紹介する。
プロセス表現は、オラクルクエリへのアクセスが与えられたときに保証されることを証明します。
我々は,これらのクエリが大規模言語モデルを用いて概ね実装可能であることを実証的に検証した。
論文 参考訳(メタデータ) (2023-09-03T23:47:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。