論文の概要: From Principles to Practices: Lessons Learned from Applying Partnership on AI's (PAI) Synthetic Media Framework to 11 Use Cases
- arxiv url: http://arxiv.org/abs/2407.13025v1
- Date: Wed, 17 Jul 2024 21:27:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-19 19:23:28.026521
- Title: From Principles to Practices: Lessons Learned from Applying Partnership on AI's (PAI) Synthetic Media Framework to 11 Use Cases
- Title(参考訳): 原則から実践へ:AI(PAI)合成メディアフレームワークのパートナシップから学ぶ11のユースケース
- Authors: Claire R. Leibowicz, Christian H. Cardona,
- Abstract要約: 2023年は世界が生成的AIに目覚めた年であり、2024年は政策立案者がより強く反応する年だ。
本論文は,合成メディアガバナンスの実装の多様な事例の収集として初めて知られるものである。
これは、合成メディアガバナンスを実際に使用するために適用、拡張、拡張、洗練できる領域を強調している。
- 参考スコア(独自算出の注目度): 1.2277343096128712
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 2023 was the year the world woke up to generative AI, and 2024 is the year policymakers are responding more firmly. Importantly, this policy momentum is taking place alongside real world creation and distribution of synthetic media. Social media platforms, news organizations, dating apps, image generation companies, and more are already navigating a world of AI-generated visuals and sounds, already changing hearts and minds, as policymakers try to catch up. How, then, can AI governance capture the complexity of the synthetic media landscape? How can it attend to synthetic media's myriad uses, ranging from storytelling to privacy preservation, to deception, fraud, and defamation, taking into account the many stakeholders involved in its development, creation, and distribution? And what might it mean to govern synthetic media in a manner that upholds the truth while bolstering freedom of expression? What follows is the first known collection of diverse examples of the implementation of synthetic media governance that responds to these questions, specifically through Partnership on AI's (PAI) Responsible Practices for Synthetic Media - a voluntary, normative Framework for creating, distributing, and building technology for synthetic media responsibly, launched in February 2023. In this paper, we present a case bank of real world examples that help operationalize the Framework - highlighting areas synthetic media governance can be applied, augmented, expanded, and refined for use, in practice. Read together, the cases emphasize distinct elements of AI policymaking and seven emergent best practices supporting transparency, safety, expression, and digital dignity online: consent, disclosure, and differentiation between harmful and creative use cases.
- Abstract(参考訳): 2023年は世界が生成的AIに目覚めた年であり、2024年は政策立案者がより強く反応する年だ。
重要なことに、この政策の勢いは、合成メディアの現実的な創造と流通と共に起こっている。
ソーシャルメディアプラットフォーム、ニュース組織、デートアプリ、画像生成会社などはすでにAIによる視覚と音の世界を旅しており、政策立案者が追いつこうとしているように、すでに心と心を変えている。
では、どのようにしてAIガバナンスは、合成メディアの複雑さを捉えることができるのか?
ストーリーテリングからプライバシ保護まで、詐欺、詐欺、非難まで、その開発、創造、流通に関わる多くのステークホルダーを考慮に入れながら、合成メディアの無数の用途にどのように対応できるだろうか?
そして、表現の自由を高めつつ、真実を守りながら合成メディアを統治することの意味は何だろうか?
以下に示すのは、これらの質問に答える合成メディアガバナンスの実装のさまざまな例の最初の例である。特に2023年2月にローンチされた、AI(PAI) Responsible Practices for Synthetic Media – 自発的で規範的な、合成メディアのための技術の作成、配布、構築のためのフレームワークであるPartners on AI(PAI) Responsible Practices for Synthetic Media(リンク)を通じてである。
本稿では,フレームワークを運用する上で有効な実世界の事例のケースバンクとして,合成メディアガバナンスの適用,拡張,拡張,そして実際に使用するために改良された領域を取り上げる。
AI政策の異なる要素と、透明性、安全性、表現、デジタル尊厳をサポートする7つの創発的なベストプラクティス(同意、開示、有害なユースケースと創造的なユースケースの区別)を強調している。
関連論文リスト
- From Experts to the Public: Governing Multimodal Language Models in Politically Sensitive Video Analysis [48.14390493099495]
本稿では,大規模言語モデル(MM-LLM)の個人的および集団的検討を通じて,ガバナンスについて検討する。
筆者らは,まず10人のジャーナリストにインタビューを行い,専門家によるビデオ解釈のベースライン理解を確立した。第2に,包括的.AIを用いた議論に携わる一般市民114名を対象にした。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Mapping AI Ethics Narratives: Evidence from Twitter Discourse Between 2015 and 2022 [6.518657832967228]
この論文でTwitterは、AI倫理に関する論議を探求するオンライン公開の場として選ばれている。
研究フレームワークは、Twitter上のAI倫理に関する言論を一貫性のある読みやすい物語に変換する方法を示すために提案されている。
論文 参考訳(メタデータ) (2024-06-20T09:08:44Z) - Guiding the Way: A Comprehensive Examination of AI Guidelines in Global Media [0.0]
本研究は17か国でメディア目的の37のAIガイドラインを分析した。
分析の結果,透明性,説明責任,公正性,プライバシ,ジャーナリスト価値の保存といった重要なテーマが明らかになった。
結果は、これらのガイドラインから生まれる共通原則とベストプラクティスを強調します。
論文 参考訳(メタデータ) (2024-05-07T22:47:56Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - A Review of the Ethics of Artificial Intelligence and its Applications
in the United States [0.0]
この論文は、AIが米国経済のあらゆる分野に与える影響と、ビジネス、政府、アカデミック、そして市民社会にまたがる組織に与える影響を強調している。
我々の議論は、包括的なテーマとして構成された11の基本的な「倫理的原則」を探求する。
これらは透明性、正義、公正、平等、非正当性、責任、説明責任、プライバシー、利益、自由、自律、信頼、尊厳、持続可能性、連帯性を含む。
論文 参考訳(メタデータ) (2023-10-09T14:29:00Z) - The Age of Synthetic Realities: Challenges and Opportunities [85.058932103181]
我々は、有害な合成生成を識別し、それらを現実と区別することのできる法医学的手法の開発における重要な必要性を強調した。
我々の焦点は、画像、ビデオ、オーディオ、テキストなどの様々なメディアの形式にまで及んでいる。
この研究は、AI生成技術の急速な進歩と、法科学の基本原理に対する影響により、最も重要である。
論文 参考訳(メタデータ) (2023-06-09T15:55:10Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Worldwide AI Ethics: a review of 200 guidelines and recommendations for
AI governance [0.0]
本稿では、公共機関、学術機関、民間企業、市民社会団体が公表した200のガバナンス政策とAI利用に関する倫理ガイドラインのメタ分析を行う。
オープンソースデータベースとツールとしてリリースされているデータセットのポリシとガイドラインで一般的な少なくとも17の共鳴原理を特定します。
本研究は, 今後の規制に組み込むべき合意の領域を提示し, 分析結果の批判的分析と組み合わせたグローバルスケール分析研究の実施の限界を提示する。
論文 参考訳(メタデータ) (2022-06-23T18:03:04Z) - Trustworthy AI: From Principles to Practices [44.67324097900778]
多くの現在のAIシステムは、認識不能な攻撃に脆弱で、表現不足なグループに偏り、ユーザのプライバシ保護が欠如していることが判明した。
このレビューでは、信頼できるAIシステムを構築するための包括的なガイドとして、AI実践者に提供したいと思っています。
信頼に値するAIに対する現在の断片化されたアプローチを統合するために、AIシステムのライフサイクル全体を考慮した体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-10-04T03:20:39Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。