論文の概要: Generative AI regulation can learn from social media regulation
- arxiv url: http://arxiv.org/abs/2412.11335v1
- Date: Sun, 15 Dec 2024 23:00:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:59:43.366442
- Title: Generative AI regulation can learn from social media regulation
- Title(参考訳): ジェネレーティブAIの規制はソーシャルメディアの規制から学ぶことができる
- Authors: Ruth Elisabeth Appel,
- Abstract要約: 生成的AI規制に関する議論は、ソーシャルメディア規制に関する議論や証拠によって情報が得られると私は主張する。
私は、その類似点と相違点を強調するために、生成的AIとソーシャルメディアの可利用性を比較して比較する。
ソーシャルメディアの進化と規制に基づく具体的な政策勧告について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: There is strong agreement that generative AI should be regulated, but strong disagreement on how to approach regulation. While some argue that AI regulation should mostly rely on extensions of existing laws, others argue that entirely new laws and regulations are needed to ensure that generative AI benefits society. In this paper, I argue that the debates on generative AI regulation can be informed by the debates and evidence on social media regulation. For example, AI companies have faced allegations of political bias regarding the images and text their models produce, similar to the allegations social media companies have faced regarding content ranking on their platforms. First, I compare and contrast the affordances of generative AI and social media to highlight their similarities and differences. Then, I discuss specific policy recommendations based on the evolution of social media and their regulation. These recommendations include investments in: efforts to counter bias and perceptions thereof (e.g., via transparency, researcher access, oversight boards, democratic input, research studies), specific areas of regulatory concern (e.g., youth wellbeing, election integrity) and trust and safety, computational social science research, and a more global perspective. Applying lessons learnt from social media regulation to generative AI regulation can save effort and time, and prevent avoidable mistakes.
- Abstract(参考訳): 生成AIは規制されるべきという強い合意があるが、規制にどうアプローチするかについては強い意見の相違がある。
AI規制は主に既存の法律の拡張に依存するべきだと主張する者もいるが、生成的AIが社会に利益をもたらすためには、全く新しい法律と規則が必要であると主張する者もいる。
本稿では、生成的AI規制に関する議論は、ソーシャルメディア規制に関する議論や証拠によってもたらされると論じる。
例えば、AI企業は、彼らのモデルが生成する画像やテキストに関する政治的偏見の主張に直面している。
まず、生成的AIとソーシャルメディアの可利用性を比較して、それらの類似点と相違点を強調します。
次に、ソーシャルメディアの進化と規制に基づく具体的な政策勧告について論じる。
例えば、透明性、研究者のアクセス、監視ボード、民主的な入力、研究研究)、規制に関する特定の分野(例えば、若者の幸福、選挙の完全性)、信頼と安全、計算社会科学の研究、そしてよりグローバルな視点である。
ソーシャルメディアの規制から学習した教訓を生成的AIの規制に適用することで、労力と時間を節約し、回避可能なミスを防ぐことができる。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Securing the Future of GenAI: Policy and Technology [50.586585729683776]
政府はGenAIを規制し、イノベーションと安全性のバランスをとるという課題に、世界中で不満を抱いている。
Google、ウィスコンシン大学、マディソン大学、スタンフォード大学が共同で行ったワークショップは、GenAIのポリシーとテクノロジーのギャップを埋めることを目的としていた。
本稿では,技術進歩を妨げることなく,どのように規制を設計できるか,といった問題に対処するワークショップの議論を要約する。
論文 参考訳(メタデータ) (2024-05-21T20:30:01Z) - Regulating Chatbot Output via Inter-Informational Competition [8.168523242105763]
本稿では、AI関連コンテンツリスクとそれに対応する規制提案を再評価するためのヤードスティックを開発する。
情報市場における情報ソース間の十分な競争は、生成的AI技術によって引き起こされるコンテンツリスクを十分に軽減し、解決することができる、と同社は主張する。
論文 参考訳(メタデータ) (2024-03-17T00:11:15Z) - Regulating AI-Based Remote Biometric Identification. Investigating the Public Demand for Bans, Audits, and Public Database Registrations [0.0]
この研究は、AI技術の規制の要求につながる可能性のある潜在的な要因として、AIに対する信頼と法執行への信頼の役割に焦点を当てている。
我々は、差別に対する認識がより強い規制の要求につながる一方で、AIへの信頼と法執行機関への信頼は、RBIシステムに対する規制の要求に関して反対の効果をもたらすことを示した。
論文 参考訳(メタデータ) (2024-01-24T17:22:33Z) - AI Ethics and Ordoliberalism 2.0: Towards A 'Digital Bill of Rights' [0.0]
本稿では,AI倫理をビジネス倫理的視点,すなわち'ordoliberalism 2.0'から分析する。
AIに関する現在進行中の議論は、企業による自己規制と自発的な行動規範に依存しすぎている、と氏は主張する。
論文は、既存のAIガイドラインと、オードリベラルにインスパイアされた規制および競争ポリシーを統合することを示唆している。
論文 参考訳(メタデータ) (2023-10-27T10:26:12Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Both eyes open: Vigilant Incentives help Regulatory Markets improve AI
Safety [69.59465535312815]
Regulatory Markets for AIは、適応性を考慮して設計された提案である。
政府はAI企業が達成すべき結果に基づく目標を設定する必要がある。
我々は、規制市場がこの目標を達成するのを阻止するインセンティブについて、非常に簡単に対応できることを警告する。
論文 参考訳(メタデータ) (2023-03-06T14:42:05Z) - Law Informs Code: A Legal Informatics Approach to Aligning Artificial
Intelligence with Humans [0.0]
法的な解釈と法的な解釈は、不透明な人間の価値を妥当な指令に変換する計算エンジンを形成する。
論理インフォームズ・コード(Law Informs Code)は、複雑な計算法的なプロセスを捉え、それらをAIに埋め込む研究課題である。
論文 参考訳(メタデータ) (2022-09-14T00:49:09Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Data, Power and Bias in Artificial Intelligence [5.124256074746721]
人工知能は社会的偏見を悪化させ、平等な権利と市民の自由における数十年の進歩を取り戻せる可能性がある。
機械学習アルゴリズムの訓練に使用されるデータは、社会で学び、永続する可能性のある社会的不正、不平等、差別的な態度を捉えることができる。
本稿では、異なるドメインからのAIシステムにおけるデータの公正性、公平性、バイアス軽減を保証するための継続的な作業についてレビューする。
論文 参考訳(メタデータ) (2020-07-28T16:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。