論文の概要: Mind the Gap! Pathways Towards Unifying AI Safety and Ethics Research
- arxiv url: http://arxiv.org/abs/2512.10058v1
- Date: Wed, 10 Dec 2025 20:28:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.053355
- Title: Mind the Gap! Pathways Towards Unifying AI Safety and Ethics Research
- Title(参考訳): AIの安全性と倫理研究の統一を目指す道
- Authors: Dani Roytburg, Beck Miller,
- Abstract要約: AIの安全性とAI倫理の間には構造的な違いがある。
安全コミュニティと倫理コミュニティの両方で、コラボレーションの80%以上が発生しています。
私たちは、技術安全作業と規範的倫理の統合 – 共有ベンチマーク、施設横断の場所 – は、堅牢かつ公正なAIシステムを構築する上で不可欠である、と論じています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While much research in artificial intelligence (AI) has focused on scaling capabilities, the accelerating pace of development makes countervailing work on producing harmless, "aligned" systems increasingly urgent. Yet research on alignment has diverged along two largely parallel tracks: safety--centered on scaled intelligence, deceptive or scheming behaviors, and existential risk--and ethics--focused on present harms, the reproduction of social bias, and flaws in production pipelines. Although both communities warn of insufficient investment in alignment, they disagree on what alignment means or ought to mean. As a result, their efforts have evolved in relative isolation, shaped by distinct methodologies, institutional homes, and disciplinary genealogies. We present a large-scale, quantitative study showing the structural split between AI safety and AI ethics. Using a bibliometric and co-authorship network analysis of 6,442 papers from twelve major ML and NLP conferences (2020-2025), we find that over 80% of collaborations occur within either the safety or ethics communities, and cross-field connectivity is highly concentrated: roughly 5% of papers account for more than 85% of bridging links. Removing a small number of these brokers sharply increases segregation, indicating that cross-disciplinary exchange depends on a handful of actors rather than broad, distributed collaboration. These results show that the safety-ethics divide is not only conceptual but institutional, with implications for research agendas, policy, and venues. We argue that integrating technical safety work with normative ethics--via shared benchmarks, cross-institutional venues, and mixed-method methodologies--is essential for building AI systems that are both robust and just.
- Abstract(参考訳): 人工知能(AI)における多くの研究は、スケーリング機能に重点を置いているが、開発ペースの加速は、無害で「整合した」システムを生み出すために、相反する作業を急務にしている。
しかし、アライメントの研究は、大規模インテリジェンス、偽装行為、現実的なリスク、現在の害、社会的偏見の再現、生産パイプラインの欠陥など、ほぼ平行な2つのトラックに沿って分岐している。
どちらのコミュニティもアライメントへの投資が不十分であることを警告しているが、アライメントの意味やすべき意味については意見が一致していない。
結果として、彼らの努力は比較的孤立して発展し、異なる方法論、制度的な家、学際的な系譜によって形作られた。
我々は,AIの安全性とAI倫理の構造的な違いを示す,大規模かつ定量的な研究を提案する。
主要なMLおよびNLPカンファレンス(2020-2025)の6,442件の文献および共著者ネットワーク分析を用いて、安全コミュニティと倫理コミュニティの両方でコラボレーションの80%以上が発生し、クロスフィールド接続が高度に集中していることがわかった。
少数のブローカーを取り除いたことで分離が大幅に増加し、学際的な交換は広く分散されたコラボレーションではなく、少数のアクターに依存していることを示している。
これらの結果から,安全倫理区分は概念的ではなく制度的であり,研究課題,政策,会場に影響を及ぼすことが示唆された。
私たちは、技術安全作業と規範的倫理の統合 – 共有ベンチマーク、クロスインスティカルな場所、混合メソッドの方法論 – は、堅牢かつ公正なAIシステムを構築する上で不可欠である、と論じています。
関連論文リスト
- Empirical AI Ethics: Reconfiguring Ethics towards a Situated, Plural, and Transformative Approach [0.0]
批判者はAI倫理がしばしば「倫理洗浄」の実践を通じて企業利益に寄与すると主張している
本稿では,AI倫理の分野を批判的に問うために,科学技術研究の視点を採用する。
論文 参考訳(メタデータ) (2025-09-22T12:58:15Z) - Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - AI Safety vs. AI Security: Demystifying the Distinction and Boundaries [37.57137473409321]
しばしば「AI安全」と「AI安全」が使われ、時には相互に使用され、概念的に混乱する。
本稿では,AIセーフティとAIセキュリティの正確な研究境界の明確化と記述を目的とした。
論文 参考訳(メタデータ) (2025-06-21T18:36:03Z) - Disentangling AI Alignment: A Structured Taxonomy Beyond Safety and Ethics [0.0]
我々は、AIアライメントを理解するための構造化された概念的フレームワークを開発する。
アライメント目標のみに焦点を当てるのではなく、アライメント目標(安全、倫理性、合法性など)、スコープ(アウトカム対実行)、選挙区(個人対集団)を区別する分類を導入する。
この構造的アプローチは複数の正統なアライメント構成を明らかにし、ドメイン間の実践的および哲学的な統合の基礎を提供する。
論文 参考訳(メタデータ) (2025-05-02T20:45:52Z) - Bridging the Gap: Integrating Ethics and Environmental Sustainability in AI Research and Practice [57.94036023167952]
我々は、AIの倫理的影響を研究するための努力は、その環境への影響を評価するものと相まって行われるべきであると論じる。
我々は,AI研究と実践にAI倫理と持続可能性を統合するためのベストプラクティスを提案する。
論文 参考訳(メタデータ) (2025-04-01T13:53:11Z) - Position: Towards Bidirectional Human-AI Alignment [109.57781720848669]
我々は、人間とAIの双方向的・動的関係を説明するために、研究コミュニティは「調整」を明確に定義し、批判的に反映すべきであると主張する。
このフレームワークは、AIと人間の価値を整合させる従来の取り組みを取り入れているだけでなく、人間とAIを整合させるという、重要で未解明の次元も導入しています。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Hybrid Approaches for Moral Value Alignment in AI Agents: a Manifesto [3.7414804164475983]
次世代人工知能(AI)システムの安全性確保への関心が高まっているため、自律エージェントに道徳を埋め込む新しいアプローチが求められている。
連続体としてモデル化された機械に道徳を導入する問題に対する既存のアプローチの体系化を提供する。
我々は、適応可能で堅牢だが制御可能で解釈可能なエージェントシステムを構築するために、よりハイブリッドなソリューションが必要であると論じている。
論文 参考訳(メタデータ) (2023-12-04T11:46:34Z) - Rethinking Fairness: An Interdisciplinary Survey of Critiques of
Hegemonic ML Fairness Approaches [0.0]
本稿では、機械学習(ML)における現在の公平性向上技術介入の批判を評価し、比較する。
哲学、フェミニスト研究、批判的な人種と民族研究、法学、人類学、科学と技術研究など、様々な非計算分野から派生している。
この記事は、社会における強大な力のダイナミクスと構造的不正を積極的に破壊する未来のMLフェアネス研究の方向性を想像することで締めくくっている。
論文 参考訳(メタデータ) (2022-05-06T14:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。