論文の概要: What is Safety? Corporate Discourse, Power, and the Politics of Generative AI Safety
- arxiv url: http://arxiv.org/abs/2602.06981v1
- Date: Mon, 26 Jan 2026 17:25:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.67698
- Title: What is Safety? Corporate Discourse, Power, and the Politics of Generative AI Safety
- Title(参考訳): 安全とは何か? コーポレート・ディスコース、パワー、そして生成AI安全の政治
- Authors: Ankolika De, Gabriel Lima, Yixin Zou,
- Abstract要約: この研究は、先導的な人工知能企業が、公開文書を通じて「安全」の概念を構築し、伝達する方法について考察する。
我々は、企業安全関連声明のコーパスを分析し、権限、責任、正当性がどのように不当に確立されているかを明らかにする。
- 参考スコア(独自算出の注目度): 19.003146213638573
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work examines how leading generative artificial intelligence companies construct and communicate the concept of "safety" through public-facing documents. Drawing on critical discourse analysis, we analyze a corpus of corporate safety-related statements to explicate how authority, responsibility, and legitimacy are discursively established. These discursive strategies consolidate legitimacy for corporate actors, normalize safety as an experimental and anticipatory practice, and push a perceived participatory agenda toward safe technologies. We argue that uncritical uptake of these discourses risks reproducing corporate priorities and constraining alternative approaches to governance and design. The contribution of this work is twofold: first, to situate safety as a sociotechnical discourse that warrants critical examination; second, to caution human-computer interaction scholars against legitimizing corporate framings, instead foregrounding accountability, equity, and justice. By interrogating safety discourses as artifacts of power, this paper advances a critical agenda for human-computer interaction scholarship on artificial intelligence.
- Abstract(参考訳): 本研究では、先導的な人工知能企業が、公開文書を通じて「安全」の概念をいかに構築し、伝達するかを検討する。
批判的談話分析に基づき、企業安全関連声明のコーパスを分析し、権限、責任、正当性がどのように不当に確立されているかを明らかにする。
これらの分散戦略は、企業アクターの正当性を強化し、実験的かつ予測的なプラクティスとして安全を正規化し、安全な技術に向けた参加的議題を推し進める。
我々は、これらの言論の非批判的な取り込みは、企業の優先順位を再現し、ガバナンスとデザインに対する代替アプローチを制約するリスクがあると主張している。
この研究の貢献は2つある: 第一に、批判的な審査を保証する社会技術談話として安全を保ち、第二に、人間とコンピュータの相互作用の学者は、企業のフレーミングの合法化に対して警告し、代わりに説明責任、株式、正義を先導する。
安全談話を力の人工物として問うことによって,人工知能に関する人間とコンピュータの相互作用研究の重要課題を推し進める。
関連論文リスト
- Frontier AI Auditing: Toward Rigorous Third-Party Assessment of Safety and Security Practices at Leading AI Companies [57.521647436515785]
私たちはフロンティアAIの監査を、フロンティアAI開発者の安全とセキュリティに関する主張の厳格な第三者による検証として定義しています。
本稿では,AI保証レベル(AAL-1からAAL-4)について紹介する。
論文 参考訳(メタデータ) (2026-01-16T18:44:09Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Coordinated Flaw Disclosure for AI: Beyond Security Vulnerabilities [1.3225694028747144]
本稿では,機械学習(ML)問題の複雑度に合わせたコーディネート・フレーバー開示フレームワークを提案する。
本フレームワークは,拡張モデルカード,ダイナミックスコープ拡張,独立適応パネル,自動検証プロセスなどのイノベーションを導入している。
CFDはAIシステムに対する公的な信頼を著しく向上させる可能性があると我々は主張する。
論文 参考訳(メタデータ) (2024-02-10T20:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。