論文の概要: Competing Visions of Ethical AI: A Case Study of OpenAI
- arxiv url: http://arxiv.org/abs/2601.16513v1
- Date: Fri, 23 Jan 2026 07:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.589344
- Title: Competing Visions of Ethical AI: A Case Study of OpenAI
- Title(参考訳): 倫理的AIの競争的ビジョン:OpenAIを事例として
- Authors: Melissa Wilfley, Mengting Ai, Madelyn Rose Sanfilippo,
- Abstract要約: 倫理的AI談話を分析したOpenAIの事例研究の結果を報告する。
OpenAIの公開談話は、どのようにして「倫理」、「安全」、「アライメント」、それに付随する概念を時間をかけて活用し、現実のフレーミングに関する言論のシグナルは何か。
- 参考スコア(独自算出の注目度): 2.927883399145545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Introduction. AI Ethics is framed distinctly across actors and stakeholder groups. We report results from a case study of OpenAI analysing ethical AI discourse. Method. Research addressed: How has OpenAI's public discourse leveraged 'ethics', 'safety', 'alignment' and adjacent related concepts over time, and what does discourse signal about framing in practice? A structured corpus, differentiating between communication for a general audience and communication with an academic audience, was assembled from public documentation. Analysis. Qualitative content analysis of ethical themes combined inductively derived and deductively applied codes. Quantitative analysis leveraged computational content analysis methods via NLP to model topics and quantify changes in rhetoric over time. Visualizations report aggregate results. For reproducible results, we have released our code at https://github.com/famous-blue-raincoat/AI_Ethics_Discourse. Results. Results indicate that safety and risk discourse dominate OpenAI's public communication and documentation, without applying academic and advocacy ethics frameworks or vocabularies. Conclusions. Implications for governance are presented, along with discussion of ethics-washing practices in industry.
- Abstract(参考訳): はじめに。
AI倫理は、アクターとステークホルダーグループの間で明確にフレーム化されている。
倫理的AI談話を分析したOpenAIの事例研究の結果を報告する。
方法。
OpenAIの公開談話は、どのようにして「倫理」、「安全」、「アライメント」、それに隣接する概念を時間をかけて活用し、実際にフレーミングに関する言論のシグナルは何か?
一般の観衆とのコミュニケーションと学術的な観衆とのコミュニケーションを区別した構造化コーパスを公開資料から収集した。
分析。
帰納的法則と帰納的法則を組み合わせた倫理的主題の質的内容分析
定量的分析は、NLPによる計算内容分析手法を利用してトピックをモデル化し、時間とともにレトリックの変化を定量化する。
可視化は集計結果を報告する。
再現可能な結果を得るために、私たちはhttps://github.com/famous-blue-raincoat/AI_Ethics_Discourse.comでコードを公開しました。
結果。
その結果、学術・擁護倫理の枠組みや語彙を適用することなく、安全とリスクの議論がOpenAIの公開コミュニケーションとドキュメントを支配していることが示唆された。
結論。
産業における倫理的洗浄の実践に関する議論とともに、ガバナンスの意味が提示される。
関連論文リスト
- Empirical AI Ethics: Reconfiguring Ethics towards a Situated, Plural, and Transformative Approach [0.0]
批判者はAI倫理がしばしば「倫理洗浄」の実践を通じて企業利益に寄与すると主張している
本稿では,AI倫理の分野を批判的に問うために,科学技術研究の視点を採用する。
論文 参考訳(メタデータ) (2025-09-22T12:58:15Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Authoritarian Recursions: How Fiction, History, and AI Reinforce Control in Education, Warfare, and Discourse [0.0]
論文は、AIシステムが教育、戦争、デジタル談話の機関的制御を統合する方法を理論的に論じている。
ケーススタディはオーウェルのtextitNineteen Eighty-Four, Skynet, textitBlack Mirror などの文化的想像物とともに分析され、倫理的な盲点を探索するための道具として使用される。
論文 参考訳(メタデータ) (2025-04-12T01:01:26Z) - Beyond principlism: Practical strategies for ethical AI use in research practices [0.0]
科学研究における生成的人工知能の急速な採用は、倫理的ガイドラインの開発を上回っている。
既存のアプローチは、科学研究の実践においてAIの倫理的課題に取り組むための実践的なガイダンスをほとんど提供しない。
抽象的な原則と日々の研究実践のギャップを埋めるために,ユーザ中心の現実主義に触発されたアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-27T03:53:25Z) - Does Explainable AI Have Moral Value? [0.0]
説明可能なAI(XAI)は、複雑なアルゴリズムシステムと人間の利害関係者のギャップを埋めることを目的としている。
現在の談話では、XAIを技術ツール、ユーザインターフェース、あるいはポリシーメカニズムとして独立して検討することが多い。
本稿では,道徳的義務と相互性の概念を基盤とした統一的倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2023-11-05T15:59:27Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。