論文の概要: Generative AI as Digital Media
- arxiv url: http://arxiv.org/abs/2503.06523v1
- Date: Sun, 09 Mar 2025 08:58:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 20:09:44.455718
- Title: Generative AI as Digital Media
- Title(参考訳): デジタルメディアとしてのジェネレーティブAI
- Authors: Gilad Abiri,
- Abstract要約: 生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI is frequently portrayed as revolutionary or even apocalyptic, prompting calls for novel regulatory approaches. This essay argues that such views are misguided. Instead, generative AI should be understood as an evolutionary step in the broader algorithmic media landscape, alongside search engines and social media. Like these platforms, generative AI centralizes information control, relies on complex algorithms to shape content, and extensively uses user data, thus perpetuating common problems: unchecked corporate power, echo chambers, and weakened traditional gatekeepers. Regulation should therefore share a consistent objective: ensuring media institutions remain trustworthy. Without trust, public discourse risks fragmenting into isolated communities dominated by comforting, tribal beliefs -- a threat intensified by generative AI's capacity to bypass gatekeepers and personalize truth. Current governance frameworks, such as the EU's AI Act and the US Executive Order 14110, emphasize reactive risk mitigation, addressing measurable threats like national security, public health, and algorithmic bias. While effective for novel technological risks, this reactive approach fails to adequately address broader issues of trust and legitimacy inherent to digital media. Proactive regulation fostering transparency, accountability, and public confidence is essential. Viewing generative AI exclusively as revolutionary risks repeating past regulatory failures that left social media and search engines insufficiently regulated. Instead, regulation must proactively shape an algorithmic media environment serving the public good, supporting quality information and robust civic discourse.
- Abstract(参考訳): ジェネレーティブAIは、しばしば革命的あるいは黙示録として描かれ、新しい規制アプローチを要求する。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、検索エンジンやソーシャルメディアとともに、より広いアルゴリズムによるメディアの展望における進化的なステップとして理解されるべきである。
これらのプラットフォームと同様に、生成AIは情報制御を集中化し、コンテンツを形成するための複雑なアルゴリズムに依存し、ユーザデータを広範囲に使用することで、未確認の企業パワー、エコーチャンバー、従来のゲートキーパーの弱体化といった一般的な問題に対処する。
したがって規制は、メディア機関が信頼できるままであることを保証するという一貫した目的を共有しなければならない。
信頼がなければ、公共の談話は孤立したコミュニティに分裂し、快適で部族的信念が支配される。
EUのAI法や米国執行命令14110のような現在のガバナンスフレームワークは、国家の安全、公衆衛生、アルゴリズムバイアスといった測定可能な脅威に対処する、リアクティブなリスク軽減を強調している。
新たな技術的リスクに対して有効であるが、このリアクティブアプローチは、デジタルメディア固有の信頼と正当性というより広範な問題に適切に対処することができない。
透明性、説明責任、および公的な信頼を促進する積極的な規制が不可欠である。
生成AIを、ソーシャルメディアと検索エンジンを十分に規制した過去の規制上の失敗を繰り返して、革命的なリスクとしてのみ見なす。
代わりに、規制は、公共の利益を提供するアルゴリズム的なメディア環境を積極的に形成し、品質情報と堅牢な市民談話をサポートする必要がある。
関連論文リスト
- Public Opinion and The Rise of Digital Minds: Perceived Risk, Trust, and Regulation Support [4.982210700018631]
本研究では,機関やAI技術に対する公的な信頼と,認識されるリスク,AI規制の形式的嗜好について検討する。
政府への信頼が高い人は規制を支持するが、AI企業やAI技術への信頼が高い人は規制を支持する傾向が低い。
論文 参考訳(メタデータ) (2025-04-30T17:56:23Z) - Do LLMs trust AI regulation? Emerging behaviour of game-theoretic LLM agents [61.132523071109354]
本稿では、異なる規制シナリオ下での戦略選択をモデル化する、AI開発者、規制当局、ユーザ間の相互作用について検討する。
我々の研究は、純粋なゲーム理論エージェントよりも「悲観的」な姿勢を採用する傾向にある戦略的AIエージェントの出現する振る舞いを特定する。
論文 参考訳(メタデータ) (2025-04-11T15:41:21Z) - From Trust to Truth: Actionable policies for the use of AI in fact-checking in Germany and Ukraine [0.081585306387285]
人工知能(AI)の台頭は、ジャーナリズム、ファクトチェック、メディア規制に対する前例のない機会と課題を提示している。
AIは偽情報と闘い、メディアの実践を強化するツールを提供しているが、その規制されていない使用と関連するリスクは明確なポリシーと協力的な努力を必要としている。
この政策論文は、偽情報に対処し、責任あるAI統合を促進することに焦点を当て、ジャーナリズムとファクトチェックにおけるAIの影響について考察する。
論文 参考訳(メタデータ) (2025-03-24T14:34:00Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Transparency, Security, and Workplace Training & Awareness in the Age of Generative AI [0.0]
AI技術の進歩に伴い、倫理的考慮、透明性、データのプライバシー、そして人間の労働への影響は、イノベーションと効率の推進力と交差する。
我々の研究は、主流の精査から離れて、しばしば周辺で機能する公開アクセス可能な大規模言語モデル(LLM)を探索する。
具体的には、制限のないコミュニケーションとプライバシを中心としたプラットフォームであるGab AIを調べ、検閲なしで自由に対話できるようにします。
論文 参考訳(メタデータ) (2024-12-19T17:40:58Z) - Generative AI regulation can learn from social media regulation [0.0]
生成的AI規制に関する議論は、ソーシャルメディア規制に関する議論や証拠によって情報が得られると私は主張する。
私は、その類似点と相違点を強調するために、生成的AIとソーシャルメディアの可利用性を比較して比較する。
ソーシャルメディアの進化と規制に基づく具体的な政策勧告について論じる。
論文 参考訳(メタデータ) (2024-12-15T23:00:29Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - The risks of risk-based AI regulation: taking liability seriously [46.90451304069951]
AIの開発と規制は、重要な段階に達したようだ。
一部の専門家は、GPT-4よりも強力なAIシステムのトレーニングに関するモラトリアムを求めている。
本稿では、最も先進的な法的提案である欧州連合のAI法について分析する。
論文 参考訳(メタデータ) (2023-11-03T12:51:37Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Factuality Challenges in the Era of Large Language Models [113.3282633305118]
大規模言語モデル(LLM)は、誤った、誤った、あるいは誤解を招くコンテンツを生成する。
LLMは悪意のあるアプリケーションに利用することができる。
これは、ユーザーを欺く可能性があるという点で、社会に重大な課題をもたらす。
論文 参考訳(メタデータ) (2023-10-08T14:55:02Z) - Dual Governance: The intersection of centralized regulation and
crowdsourced safety mechanisms for Generative AI [1.2691047660244335]
Generative Artificial Intelligence(AI)は、特に消費者向け、オープンエンド、テキスト、画像生成モデルという形で、最近主流に採用されている。
創造的なAIが人間の創造性と生活を駆逐する可能性もまた、厳しい監視下にある。
政府によるAIを統制するための既存の規制と提案は、十分な明確さや統一性を持たないような批判に直面している。
クラウドソースによる安全ツールとメカニズムによる分散保護は、潜在的な代替手段である。
論文 参考訳(メタデータ) (2023-08-02T23:25:21Z) - Bridging the Global Divide in AI Regulation: A Proposal for a Contextual, Coherent, and Commensurable Framework [0.9622882291833615]
本稿では、人工知能(AI)を制御するための文脈的・一貫性的・包括的枠組み(3C)を提案する。
コンテキスト性を確保するため、このフレームワークはAIライフサイクルを、基礎や汎用モデルを定義するのではなく、特定のタスクの学習とデプロイという2つのフェーズに分岐させる。
コンメンサビリティを確保するため、この枠組みはリスクの測定と緩和のための国際標準の採用を促進する。
論文 参考訳(メタデータ) (2023-03-20T15:23:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。