論文の概要: From Principles to Practices: Lessons Learned from Applying Partnership on AI's (PAI) Synthetic Media Framework to 11 Use Cases
- arxiv url: http://arxiv.org/abs/2407.13025v2
- Date: Fri, 19 Jul 2024 15:57:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 11:40:33.904781
- Title: From Principles to Practices: Lessons Learned from Applying Partnership on AI's (PAI) Synthetic Media Framework to 11 Use Cases
- Title(参考訳): 原則から実践へ:AI(PAI)合成メディアフレームワークのパートナシップから学ぶ11のユースケース
- Authors: Claire R. Leibowicz, Christian H. Cardona,
- Abstract要約: 2023年は世界が生成的AIに目覚めた年であり、2024年は政策立案者がより強く反応する年だ。
本論文は,合成メディアガバナンスの実装の多様な事例の収集として初めて知られるものである。
これは、合成メディアガバナンスを実際に使用するために適用、拡張、拡張、洗練できる領域を強調している。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 2023 was the year the world woke up to generative AI, and 2024 is the year policymakers are responding more firmly. Importantly, this policy momentum is taking place alongside real world creation and distribution of synthetic media. Social media platforms, news organizations, dating apps, image generation companies, and more are already navigating a world of AI-generated visuals and sounds, already changing hearts and minds, as policymakers try to catch up. How, then, can AI governance capture the complexity of the synthetic media landscape? How can it attend to synthetic media's myriad uses, ranging from storytelling to privacy preservation, to deception, fraud, and defamation, taking into account the many stakeholders involved in its development, creation, and distribution? And what might it mean to govern synthetic media in a manner that upholds the truth while bolstering freedom of expression? What follows is the first known collection of diverse examples of the implementation of synthetic media governance that responds to these questions, specifically through Partnership on AI's (PAI) Responsible Practices for Synthetic Media - a voluntary, normative Framework for creating, distributing, and building technology for synthetic media responsibly, launched in February 2023. In this paper, we present a case bank of real world examples that help operationalize the Framework - highlighting areas synthetic media governance can be applied, augmented, expanded, and refined for use, in practice. Read together, the cases emphasize distinct elements of AI policymaking and seven emergent best practices supporting transparency, safety, expression, and digital dignity online: consent, disclosure, and differentiation between harmful and creative use cases.
- Abstract(参考訳): 2023年は世界が生成的AIに目覚めた年であり、2024年は政策立案者がより強く反応する年だ。
重要なことに、この政策の勢いは、合成メディアの現実的な創造と流通と共に起こっている。
ソーシャルメディアプラットフォーム、ニュース組織、デートアプリ、画像生成会社などはすでにAIによる視覚と音の世界を旅しており、政策立案者が追いつこうとしているように、すでに心と心を変えている。
では、どのようにしてAIガバナンスは、合成メディアの複雑さを捉えることができるのか?
ストーリーテリングからプライバシ保護まで、詐欺、詐欺、非難まで、その開発、創造、流通に関わる多くのステークホルダーを考慮に入れながら、合成メディアの無数の用途にどのように対応できるだろうか?
そして、表現の自由を高めつつ、真実を守りながら合成メディアを統治することの意味は何だろうか?
以下に示すのは、これらの質問に答える合成メディアガバナンスの実装のさまざまな例の最初の例である。特に2023年2月にローンチされた、AI(PAI) Responsible Practices for Synthetic Media – 自発的で規範的な、合成メディアのための技術の作成、配布、構築のためのフレームワークであるPartners on AI(PAI) Responsible Practices for Synthetic Media(リンク)を通じてである。
本稿では,フレームワークを運用する上で有効な実世界の事例のケースバンクとして,合成メディアガバナンスの適用,拡張,拡張,そして実際に使用するために改良された領域を取り上げる。
AI政策の異なる要素と、透明性、安全性、表現、デジタル尊厳をサポートする7つの創発的なベストプラクティス(同意、開示、有害なユースケースと創造的なユースケースの区別)を強調している。
関連論文リスト
- Regulating Reality: Exploring Synthetic Media Through Multistakeholder AI Governance [1.450405446885067]
本稿では,各分野の合成メディアを運営している利害関係者に対する,詳細な,半構造化された23のインタビューを分析した。
それは、時間的視点が過去、現在、未来をどのように拡大するかを含む、合成メディアガバナンスに影響を及ぼす重要なテーマを明らかにします。
また、ステークホルダーとオーディエンスと介入の間の信頼の重要な役割を明らかにします。
論文 参考訳(メタデータ) (2025-02-06T21:56:16Z) - Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Mapping AI Ethics Narratives: Evidence from Twitter Discourse Between 2015 and 2022 [6.518657832967228]
この論文でTwitterは、AI倫理に関する論議を探求するオンライン公開の場として選ばれている。
研究フレームワークは、Twitter上のAI倫理に関する言論を一貫性のある読みやすい物語に変換する方法を示すために提案されている。
論文 参考訳(メタデータ) (2024-06-20T09:08:44Z) - Guiding the Way: A Comprehensive Examination of AI Guidelines in Global Media [0.0]
本研究は17か国でメディア目的の37のAIガイドラインを分析した。
分析の結果,透明性,説明責任,公正性,プライバシ,ジャーナリスト価値の保存といった重要なテーマが明らかになった。
結果は、これらのガイドラインから生まれる共通原則とベストプラクティスを強調します。
論文 参考訳(メタデータ) (2024-05-07T22:47:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The Age of Synthetic Realities: Challenges and Opportunities [85.058932103181]
我々は、有害な合成生成を識別し、それらを現実と区別することのできる法医学的手法の開発における重要な必要性を強調した。
我々の焦点は、画像、ビデオ、オーディオ、テキストなどの様々なメディアの形式にまで及んでいる。
この研究は、AI生成技術の急速な進歩と、法科学の基本原理に対する影響により、最も重要である。
論文 参考訳(メタデータ) (2023-06-09T15:55:10Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Worldwide AI Ethics: a review of 200 guidelines and recommendations for
AI governance [0.0]
本稿では、公共機関、学術機関、民間企業、市民社会団体が公表した200のガバナンス政策とAI利用に関する倫理ガイドラインのメタ分析を行う。
オープンソースデータベースとツールとしてリリースされているデータセットのポリシとガイドラインで一般的な少なくとも17の共鳴原理を特定します。
本研究は, 今後の規制に組み込むべき合意の領域を提示し, 分析結果の批判的分析と組み合わせたグローバルスケール分析研究の実施の限界を提示する。
論文 参考訳(メタデータ) (2022-06-23T18:03:04Z) - Confucius, Cyberpunk and Mr. Science: Comparing AI ethics between China
and the EU [41.19326726478421]
主要な関心事は、これらの原理に関する大きな均一性と仮定された合意主義である。
我々は,中国国家新世代人工知能ガバナンス専門委員会が支持する倫理原則と,欧州高レベルAI専門家グループ(HLEGAI)が支持する倫理原則を分析・比較することを提案する。
分析では、事前に類似しているように見える原則が、実際には異なる意味を持ち、異なるアプローチから派生し、異なる目標を反映している可能性があることを強調したい。
論文 参考訳(メタデータ) (2021-11-15T06:38:33Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。