論文の概要: Generative AI as Digital Media
- arxiv url: http://arxiv.org/abs/2503.06523v1
- Date: Sun, 09 Mar 2025 08:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:49.340362
- Title: Generative AI as Digital Media
- Title(参考訳): デジタルメディアとしてのジェネレーティブAI
- Authors: Gilad Abiri,
- Abstract要約: 生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Generative AI is frequently portrayed as revolutionary or even apocalyptic, prompting calls for novel regulatory approaches. This essay argues that such views are misguided. Instead, generative AI should be understood as an evolutionary step in the broader algorithmic media landscape, alongside search engines and social media. Like these platforms, generative AI centralizes information control, relies on complex algorithms to shape content, and extensively uses user data, thus perpetuating common problems: unchecked corporate power, echo chambers, and weakened traditional gatekeepers. Regulation should therefore share a consistent objective: ensuring media institutions remain trustworthy. Without trust, public discourse risks fragmenting into isolated communities dominated by comforting, tribal beliefs -- a threat intensified by generative AI's capacity to bypass gatekeepers and personalize truth. Current governance frameworks, such as the EU's AI Act and the US Executive Order 14110, emphasize reactive risk mitigation, addressing measurable threats like national security, public health, and algorithmic bias. While effective for novel technological risks, this reactive approach fails to adequately address broader issues of trust and legitimacy inherent to digital media. Proactive regulation fostering transparency, accountability, and public confidence is essential. Viewing generative AI exclusively as revolutionary risks repeating past regulatory failures that left social media and search engines insufficiently regulated. Instead, regulation must proactively shape an algorithmic media environment serving the public good, supporting quality information and robust civic discourse.
- Abstract(参考訳): ジェネレーティブAIは、しばしば革命的あるいは黙示録として描かれ、新しい規制アプローチを要求する。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、検索エンジンやソーシャルメディアとともに、より広いアルゴリズムによるメディアの展望における進化的なステップとして理解されるべきである。
これらのプラットフォームと同様に、生成AIは情報制御を集中化し、コンテンツを形成するための複雑なアルゴリズムに依存し、ユーザデータを広範囲に使用することで、未確認の企業パワー、エコーチャンバー、従来のゲートキーパーの弱体化といった一般的な問題に対処する。
したがって規制は、メディア機関が信頼できるままであることを保証するという一貫した目的を共有しなければならない。
信頼がなければ、公共の談話は孤立したコミュニティに分裂し、快適で部族的信念が支配される。
EUのAI法や米国執行命令14110のような現在のガバナンスフレームワークは、国家の安全、公衆衛生、アルゴリズムバイアスといった測定可能な脅威に対処する、リアクティブなリスク軽減を強調している。
新たな技術的リスクに対して有効であるが、このリアクティブアプローチは、デジタルメディア固有の信頼と正当性というより広範な問題に適切に対処することができない。
透明性、説明責任、および公的な信頼を促進する積極的な規制が不可欠である。
生成AIを、ソーシャルメディアと検索エンジンを十分に規制した過去の規制上の失敗を繰り返して、革命的なリスクとしてのみ見なす。
代わりに、規制は、公共の利益を提供するアルゴリズム的なメディア環境を積極的に形成し、品質情報と堅牢な市民談話をサポートする必要がある。
関連論文リスト
- Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Generative AI regulation can learn from social media regulation [0.0]
生成的AI規制に関する議論は、ソーシャルメディア規制に関する議論や証拠によって情報が得られると私は主張する。
私は、その類似点と相違点を強調するために、生成的AIとソーシャルメディアの可利用性を比較して比較する。
ソーシャルメディアの進化と規制に基づく具体的な政策勧告について論じる。
論文 参考訳(メタデータ) (2024-12-15T23:00:29Z) - Charting the Landscape of Nefarious Uses of Generative Artificial Intelligence for Online Election Interference [11.323961700172175]
本稿では,GenAIの悪用を探求し,民主的プロセスの破壊の可能性を明らかにする。
悪質な俳優はこれらの技術を利用して有権者の行動に影響を与え、偽情報を広め、選挙制度に対する大衆の信頼を損なう。
論文 参考訳(メタデータ) (2024-06-04T00:26:12Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。