論文の概要: From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis
- arxiv url: http://arxiv.org/abs/2410.01817v1
- Date: Sun, 15 Sep 2024 03:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 14:54:47.273962
- Title: From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis
- Title(参考訳): 専門家から一般へ:政治的感性ビデオ分析におけるマルチモーダル言語モデルの支配
- Authors: Tanusree Sharma, Yujin Potter, Zachary Kilhoffer, Yun Huang, Dawn Song, Yang Wang,
- Abstract要約: 本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
- 参考スコア(独自算出の注目度): 48.14390493099495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper examines the governance of multimodal large language models (MM-LLMs) through individual and collective deliberation, focusing on analyses of politically sensitive videos. We conducted a two-step study: first, interviews with 10 journalists established a baseline understanding of expert video interpretation; second, 114 individuals from the general public engaged in deliberation using Inclusive.AI, a platform that facilitates democratic decision-making through decentralized autonomous organization (DAO) mechanisms. Our findings show that while experts emphasized emotion and narrative, the general public prioritized factual clarity, objectivity of the situation, and emotional neutrality. Additionally, we explored the impact of different governance mechanisms: quadratic vs. weighted ranking voting and equal vs. 20-80 power distributions on users decision-making on how AI should behave. Specifically, quadratic voting enhanced perceptions of liberal democracy and political equality, and participants who were more optimistic about AI perceived the voting process to have a higher level of participatory democracy. Our results suggest the potential of applying DAO mechanisms to help democratize AI governance.
- Abstract(参考訳): 本稿では、政治的に敏感なビデオの分析に焦点をあて、個人的および集団的な検討を通じて、MM-LLM(Multimodal large language model)のガバナンスについて検討する。
筆者らはまず,10人のジャーナリストへのインタビューを通じて,専門家によるビデオ解釈のベースライン理解を確立した。第2に,集中型自律組織(DAO)機構による民主的意思決定を促進するプラットフォームであるInclusive.AIを用いて,一般市民から114人の個人による議論を行った。
以上の結果から,専門家は感情や物語を重視する一方で,一般市民は事実の明確さ,状況の客観性,感情の中立性を優先した。
さらに、我々は異なるガバナンスメカニズムの影響について検討した。2次対重み付けの投票と、AIがどのように振る舞うべきかについての意思決定に等しい20-80の電力分布だ。
具体的には、二次投票は自由民主主義と政治的平等の認識を高め、AIに楽観的な参加者は投票プロセスがより参加的な民主主義のレベルが高いと認識した。
この結果から,AIガバナンスの民主化を支援するためのDAO機構の適用の可能性が示唆された。
関連論文リスト
- Toward Democracy Levels for AI [4.048639768405042]
我々は、あるドメインにおける決定が民主的に行われる程度を評価するための「民主主義レベル」フレームワークを提供する。
このフレームワークは (i) 民主的なAI、多元的AI、および公的なAIエコシステムのロードマップで定義するために、 (ii) 難しいAIガバナンスの質問に対する意思決定の正当性を高める必要がある組織を指導するために、 (iii) AI組織を評価して責任を負うことを目指す人々による粗悪品として使用することができる。
論文 参考訳(メタデータ) (2024-11-14T06:37:45Z) - Biased AI can Influence Political Decision-Making [64.9461133083473]
本稿では、AI言語モデルにおけるパルチザンバイアスが政治的意思決定に及ぼす影響について検討する。
政治的に偏見のあるモデルに晒された参加者は、意見を採用し、AIの偏見と一致した決定を下す可能性が著しく高いことがわかった。
論文 参考訳(メタデータ) (2024-10-08T22:56:00Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Generative AI Voting: Fair Collective Choice is Resilient to LLM Biases and Inconsistencies [21.444936180683147]
我々は、現実世界で初めて、直接民主主義における有権者の比例代表を示す。
また、平等な共有のような公正な投票集約手法は、より公平なAI表現を持つ人間に対するより公平な投票結果であることを示す。
論文 参考訳(メタデータ) (2024-05-31T01:41:48Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Key Factors Affecting European Reactions to AI in European Full and
Flawed Democracies [1.104960878651584]
本研究では、ヨーロッパにおける完全な民主主義と欠陥のある民主主義の文脈において、人工知能(AI)に対する欧州の反応に影響を与える重要な要因について検討する。
欠陥のある民主主義は、完全な民主主義において、政府の機関に対する信頼度が高い傾向にあることが観察された。
欠陥のある民主主義に居住する個人は、完全な民主主義の回答者と比較して、AIに対してより肯定的な態度を示す。
論文 参考訳(メタデータ) (2023-10-04T22:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。