論文の概要: Regulating Reality: Exploring Synthetic Media Through Multistakeholder AI Governance
- arxiv url: http://arxiv.org/abs/2502.04526v1
- Date: Thu, 06 Feb 2025 21:56:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-10 14:57:29.453749
- Title: Regulating Reality: Exploring Synthetic Media Through Multistakeholder AI Governance
- Title(参考訳): 拡張現実の規制 - マルチステークホルダAIガバナンスによる合成メディアの探索
- Authors: Claire R. Leibowicz,
- Abstract要約: 本稿では,各分野の合成メディアを運営している利害関係者に対する,詳細な,半構造化された23のインタビューを分析した。
それは、時間的視点が過去、現在、未来をどのように拡大するかを含む、合成メディアガバナンスに影響を及ぼす重要なテーマを明らかにします。
また、ステークホルダーとオーディエンスと介入の間の信頼の重要な役割を明らかにします。
- 参考スコア(独自算出の注目度): 1.450405446885067
- License:
- Abstract: Artificial intelligence's integration into daily life has brought with it a reckoning on the role such technology plays in society and the varied stakeholders who should shape its governance. This is particularly relevant for the governance of AI-generated media, or synthetic media, an emergent visual technology that impacts how people interpret online content and perceive media as records of reality. Studying the stakeholders affecting synthetic media governance is vital to assessing safeguards that help audiences make sense of content in the AI age; yet there is little qualitative research about how key actors from civil society, industry, media, and policy collaborate to conceptualize, develop, and implement such practices. This paper addresses this gap by analyzing 23 in-depth, semi-structured interviews with stakeholders governing synthetic media from across sectors alongside two real-world cases of multistakeholder synthetic media governance. Inductive coding reveals key themes affecting synthetic media governance, including how temporal perspectives-spanning past, present, and future-mediate stakeholder decision-making and rulemaking on synthetic media. Analysis also reveals the critical role of trust, both among stakeholders and between audiences and interventions, as well as the limitations of technical transparency measures like AI labels for supporting effective synthetic media governance. These findings not only inform the evidence-based design of synthetic media policy that serves audiences encountering content, but they also contribute to the literature on multistakeholder AI governance overall through rare insight into real world examples of such processes.
- Abstract(参考訳): 人工知能の日常生活への統合は、そのような技術が社会で果たす役割と、その統治を形成するべき様々な利害関係者を思い起こさせる。
これは、人々がオンラインコンテンツをどのように解釈し、メディアを現実の記録として知覚するかに影響を与える創発的な視覚技術である、AI生成メディア(synthetic media)のガバナンスに特に関係している。
合成メディアガバナンスに影響を及ぼす利害関係者を研究することは、聴衆がAI時代のコンテンツを理解するのを助けるために不可欠である。
本稿は, 複数分野の合成メディアを運営している利害関係者と, 現実の2件の複合メディアガバナンスの事例と合わせて, 23件の詳細な半構造化インタビューを分析して, このギャップを解消するものである。
インダクティブコーディングは、時間的視点による過去、現在、将来の中間的ステークホルダーの意思決定と合成メディアのルール作成など、合成メディアガバナンスに影響を及ぼす重要なテーマを明らかにしている。
分析はまた、ステークホルダーとオーディエンスと介入の間の信頼と、効果的な合成メディアガバナンスをサポートするためのAIラベルのような技術的な透明性対策の限界の両方において、信頼が重要な役割を明らかにしている。
これらの発見は、コンテンツに遭遇するオーディエンスを支援する合成メディアポリシーのエビデンスに基づく設計を通知するだけでなく、そのようなプロセスの実例に関する希少な洞察を通じて、マルチステークホルダーAIガバナンスに関する文献に貢献する。
関連論文リスト
- Public sentiments on the fourth industrial revolution: An unsolicited public opinion poll from Twitter [0.0]
本稿は、第4次産業革命(4IR)に関する公的な認識を、6カ国にわたるソーシャルメディアの議論の分析を通じて探求する。
感情分析と機械学習技術を用いて、人工知能やロボティクス、ブロックチェーンといったテクノロジの社会への統合に対して、一般人がどのように反応するかを評価する。
結果は、中立的な立場からより決定的な立場へ移行し、技術的な影響を受け入れるか、抵抗するかのどちらかで、意見の顕著な分極を浮き彫りにした。
論文 参考訳(メタデータ) (2024-11-21T15:39:53Z) - Artificial Intelligence in Brazilian News: A Mixed-Methods Analysis [0.0]
本研究は,2023年7月1日から2024年2月29日までに発行されたブラジルのメディアから,13の人気ニュースメディアから3,560件のニュース記事を分析した。
この結果から、ブラジルのAIに関するニュースは、職場やプロダクトのローンチにおけるアプリケーションに関連するトピックに支配されていることが明らかになった。
この分析はまた、業界関連企業の存在が顕著に強調され、企業の課題が国内のニュースに強く影響していることを示している。
論文 参考訳(メタデータ) (2024-10-22T20:52:51Z) - From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - From Principles to Practices: Lessons Learned from Applying Partnership on AI's (PAI) Synthetic Media Framework to 11 Use Cases [1.2277343096128712]
2023年は世界が生成的AIに目覚めた年であり、2024年は政策立案者がより強く反応する年だ。
本論文は,合成メディアガバナンスの実装の多様な事例の収集として初めて知られるものである。
これは、合成メディアガバナンスを実際に使用するために適用、拡張、拡張、洗練できる領域を強調している。
論文 参考訳(メタデータ) (2024-07-17T21:27:56Z) - Guiding the Way: A Comprehensive Examination of AI Guidelines in Global Media [0.0]
本研究は17か国でメディア目的の37のAIガイドラインを分析した。
分析の結果,透明性,説明責任,公正性,プライバシ,ジャーナリスト価値の保存といった重要なテーマが明らかになった。
結果は、これらのガイドラインから生まれる共通原則とベストプラクティスを強調します。
論文 参考訳(メタデータ) (2024-05-07T22:47:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Aggression and "hate speech" in communication of media users: analysis
of control capabilities [50.591267188664666]
著者らは新メディアにおける利用者の相互影響の可能性を検討した。
新型コロナウイルス(COVID-19)対策として、緊急の社会問題について議論する際、攻撃やヘイトスピーチのレベルが高いことが分かった。
結果は、現代のデジタル環境におけるメディアコンテンツの開発に有用である。
論文 参考訳(メタデータ) (2022-08-25T15:53:32Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - The Deepfake Detection Dilemma: A Multistakeholder Exploration of
Adversarial Dynamics in Synthetic Media [0.0]
合成メディア検出技術は、メディアを合成または非合成のいずれかとラベル付けする。
検出プラクティスがよりアクセスしやすくなれば,回避も容易になる。
この研究は、検出器ジレンマをナビゲートする「最良の」アプローチは存在しないと結論付けている。
論文 参考訳(メタデータ) (2021-02-11T16:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。