論文の概要: The Disintegration of Free Speech
- arxiv url: http://arxiv.org/abs/2603.00754v1
- Date: Sat, 28 Feb 2026 17:57:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.350888
- Title: The Disintegration of Free Speech
- Title(参考訳): 自由音声の分解
- Authors: Yiyang Mei,
- Abstract要約: 本条は、第1条に基づくAIによるコミュニケーションの憲法的状況について考察する。
既存の法則の下では、AI生成コンテンツは保護されたスピーチである、と同社は主張する。
本条は、この教義の軌道は、憲法修正第1条をその民主的基盤から剥奪するリスクを負っていると結論付けている。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This Article examines the constitutional status of AI-mediated communication under the First Amendment. Social media platforms, increasingly integrated with generative AI systems, now function as core public communication infrastructures. Within this environment, AI-generated pornography and large-scale political misinformation have produced significant dignitary and democratic harms. In response, states have enacted regulations requiring platforms to remove certain content, disclose recommendation practices, or redesign moderation systems. These measures, however, collide with prevailing First Amendment doctrine. The Article argues that under existing jurisprudence, AI-generated content is protected speech, and regulations targeting platform moderation practices are likely unconstitutional. Since the 1970s, the Supreme Court has shifted from a structural concern with the free circulation of information toward a strong protection of editorial autonomy, understood as control over authorship, expressive identity, and freedom from compelled attribution. Once content moderation is characterized as editorial judgment, regulatory mandates that compel or restrict such practices presumptively violate the Free Speech Clause. The Article concludes that this doctrinal trajectory risks severing the First Amendment from its democratic foundations and calls for a reconstruction attentive to automated content production, platform infrastructure, and concentrated communicative power.
- Abstract(参考訳): 本条は、第1条に基づくAIによるコミュニケーションの憲法的状況について考察する。
ソーシャルメディアプラットフォームは、生成的AIシステムとますます統合され、現在では、中核的な公共通信基盤として機能している。
この環境の中で、AIが生成するポルノや大規模な政治的誤報は、尊厳と民主的な被害を生み出している。
これに対し、州はプラットフォームに特定のコンテンツを削除すること、推奨プラクティスを公表すること、あるいはモデレーションシステムを再設計することを要求する規制を制定した。
しかし、これらの措置は修正第一条の原則と衝突した。
同条は、既存の法制の下では、AI生成コンテンツは保護された言論であり、プラットフォームモデレーションの慣行をターゲットとする規制は違憲である可能性が高いと主張している。
1970年代以降、最高裁判所は情報の自由な流通に関する構造的な懸念から、権威の統制、表現力のあるアイデンティティ、帰属の自由と理解された、編集の自治の強い保護へと移行してきた。
コンテンツモデレーションが編集判断として特徴づけられると、そのような慣行を強制または制限する規制委任状は、前もって言論の自由を侵害する。
本条は、この教義の軌道は、憲法修正第1条を民主的基盤から剥奪し、自動コンテンツ生産、プラットフォームインフラ、集中的な通信力に注意を向けた復興を求めるものであると結論付けている。
関連論文リスト
- Synthetic Voices, Real Threats: Evaluating Large Text-to-Speech Models in Generating Harmful Audio [63.18443674004945]
この研究は、TSシステムを利用して有害なコンテンツを含む音声を生成する、コンテンツ中心の脅威を探究する。
HARMGENは、これらの課題に対処する2つのファミリーにまとめられた5つの攻撃群である。
論文 参考訳(メタデータ) (2025-11-14T03:00:04Z) - Latent Topic Synthesis: Leveraging LLMs for Electoral Ad Analysis [51.95395936342771]
ラベルなしコーパスから解釈可能なトピック分類を自動生成するエンドツーエンドフレームワークを提案する。
われわれはこの枠組みを、2024年アメリカ合衆国大統領選挙の1ヶ月前のMeta政治広告の大規模なコーパスに適用する。
提案手法は,潜在談話構造を明らかにし,意味的に豊かなトピックラベルを合成し,モラル・フレーミングの次元でトピックを注釈する。
論文 参考訳(メタデータ) (2025-10-16T20:30:20Z) - Reclaiming Constitutional Authority of Algorithmic Power [0.0]
AIの統治はもはや技術的規制の問題ではない。
本条は、連帯権力と法的抵抗権に基づく憲法の枠組みを再構築する。
個人は、正統性や良心の領域を強要するシステムに抵抗する憲法上の権利を保有する。
論文 参考訳(メタデータ) (2025-08-12T23:46:30Z) - HatePRISM: Policies, Platforms, and Research Integration. Advancing NLP for Hate Speech Proactive Mitigation [67.69631485036665]
我々は3つの観点からヘイトスピーチ規制と戦略を総合的に検討する。
以上の結果から,ヘイトスピーチ定義や地域ごとのモデレーション慣行に重大な矛盾があることが判明した。
自動ヘイトスピーチモデレーションのための統合フレームワークのさらなる検討のためのアイデアと研究の方向性を提案する。
論文 参考訳(メタデータ) (2025-07-06T11:25:23Z) - Intentionally Unintentional: GenAI Exceptionalism and the First Amendment [9.330416981746971]
本稿では,大規模な生成AIモデルからの出力に対して,裁判所が修正第一条の保護を与えるべきだという仮定に異議を唱える。
これらのモデルには意図性がないため、確立された法律上の前例の文脈で理解されているように、そのアウトプットはスピーチを構成することができない、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-05T16:26:32Z) - The Model Hears You: Audio Language Model Deployments Should Consider the Principle of Least Privilege [48.18013944679755]
最新の音声言語モデル(Audio LMs)は、別の転写ステップに頼るのではなく、音声を直接処理する。
このシフトは、イントネーションや複数の話者の存在などの詳細な情報を保存し、それ以外は転写で失われる。
また、話者アイデンティティーの手がかりや、他の機密性の高い発声特性の誤用など、新たな安全性リスクも導入されている。
論文 参考訳(メタデータ) (2025-03-21T04:03:59Z) - Generative AI as Digital Media [0.0]
生成AIは、しばしば革命的または黙示録として描かれる。
このエッセイはそのような見解は誤解されていると論じている。
むしろ、生成AIは、より広範なアルゴリズムメディアの展望における進化的なステップとして理解されるべきである。
論文 参考訳(メタデータ) (2025-03-09T08:58:17Z) - A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - Aligning AI with Public Values: Deliberation and Decision-Making for Governing Multimodal LLMs in Political Video Analysis [48.14390493099495]
AIモデルが政治的トピックにどう対処すべきかは議論されているが、依然として困難であり、より優れたガバナンスが必要である。
本稿では、政治的に敏感なビデオを中心に、個人的および集団的な議論を通じて、大規模言語モデルのガバナンスについて検討する。
論文 参考訳(メタデータ) (2024-09-15T03:17:38Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - The Unappreciated Role of Intent in Algorithmic Moderation of Social Media Content [2.2618341648062477]
本稿では,コンテンツモデレーションシステムにおける意図の役割について考察する。
本研究は,意識と意図を捉える能力を評価するために,オンライン虐待に対するアート検出モデルとベンチマークトレーニングデータセットの現状をレビューする。
論文 参考訳(メタデータ) (2024-05-17T18:05:13Z) - Why Should This Article Be Deleted? Transparent Stance Detection in
Multilingual Wikipedia Editor Discussions [47.944081120226905]
ウィキペディア編集者の議論の新たなデータセットを3言語で構築する。
データセットには、エディタのスタンス(keep、delete、merge、コメント)と、記述された理由、編集決定ごとにコンテンツモデレーションポリシーが含まれている。
我々は、姿勢とそれに対応する理由(政治)を高い精度で予測し、意思決定プロセスに透明性を加えることを実証する。
論文 参考訳(メタデータ) (2023-10-09T15:11:02Z) - A User-Driven Framework for Regulating and Auditing Social Media [94.70018274127231]
アルゴリズムフィルタリングは、フレキシブルでユーザ主導のベースラインに対して規制されるべきである。
プラットフォームフィルタのフィードには,それぞれのベースラインフィードと「類似した」情報コンテンツが含まれる必要がある。
プラットフォームがこの要件を尊重するかどうかをチェックする監査手順を提案する。
論文 参考訳(メタデータ) (2023-04-20T17:53:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。