論文の概要: Bridging the Gap in the Responsible AI Divides
- arxiv url: http://arxiv.org/abs/2603.14495v1
- Date: Sun, 15 Mar 2026 17:19:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.849057
- Title: Bridging the Gap in the Responsible AI Divides
- Title(参考訳): 責任あるAIディバイドのギャップを埋める
- Authors: Bálint Gyevnár, Atoosa Kasirzadeh,
- Abstract要約: AI安全(AIS)とAI倫理(AIE)の緊張は、AIガバナンスとAIに関する公的な議論でますます表面化している。
我々は,過激な対立,離脱,包括的共存,批判的ブリッジングという,緊張関係の4つのモードを分類するモデルを導入する。
- 参考スコア(独自算出の注目度): 1.5120428871017098
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tensions between AI Safety (AIS) and AI Ethics (AIE) have increasingly surfaced in AI governance and public debates about AI, leading to what we term the "responsible AI divides". We introduce a model that categorizes four modes of engagement with the tensions: radical confrontation, disengagement, compartmentalized coexistence, and critical bridging. We then investigate how critical bridging, with a particular focus on bridging problems, offers one of the most viable constructive paths for advancing responsible AI. Using computational tools to analyze a curated dataset of 3,550 papers, we map the research landscapes of AIE and AIS to identify both distinct and overlapping problems. Our findings point to both thematic divides and overlaps. For example, we find that AIE has long grappled with overcoming injustice and tangible AI harms, whereas AIS has primarily embodied an anticipatory approach focused on the mitigation of risks from AI capabilities. At the same time, we find significant overlap in core research concerns across both AIE and AIS around transparency, reproducibility, and inadequate governance mechanisms. As AIE and AIS continue to evolve, we recommend focusing on bridging problems as a constructive path forward for enhancing collaborative AI governance. We offer a series of recommendations to integrate shared considerations into a collaborative approach to responsible AI. Alongside our proposal, we highlight its limitations and explore open problems for future research. All data including the fully annotated dataset of papers with code to reproduce our figures can be found at: https://github.com/gyevnarb/ai-safety-ethics.
- Abstract(参考訳): AI安全(AIS)とAI倫理(AIE)の緊張は、AIガバナンスとAIに関する公的な議論でますます表面化している。
我々は,過激な対立,離脱,包括的共存,批判的ブリッジングという,緊張関係の4つのモードを分類するモデルを導入する。
次に、重要なブリッジングが、特にブリッジングの問題に焦点をあてて、責任あるAIを前進させるための最も実行可能な建設的パスの1つを提供しているかを調査する。
計算ツールを用いて3,550枚の論文のキュレートされたデータセットを解析し,AIEとAISの研究環境をマッピングし,相違点と重複点の両方を同定する。
以上の結果から,主題的相違と重複が指摘された。
例えば、AIEは長年、不正と具体的なAIの害を克服してきたが、AIは主としてAI能力からリスクを緩和することに焦点を当てた予測的アプローチを具現化してきた。
同時に、透明性、再現性、不適切なガバナンスメカニズムに関して、AIEとAISの双方でコア研究の懸念が著しく重複していることがわかりました。
AIEとAISが進化を続けるにつれて、私たちは、協力的なAIガバナンスを強化するための建設的な道として、問題をブリッジすることに注力することを推奨します。
私たちは、共有された考慮事項を、責任あるAIに対する協調的なアプローチに統合するための一連のレコメンデーションを提供します。
提案とともに,その限界を強調し,今後の研究の課題を探る。
図を再現するためのコード付きの完全な注釈付き論文データセットを含むすべてのデータは、https://github.com/gyevnarb/ai-safety-ethics.orgにある。
関連論文リスト
- AI Governance to Avoid Extinction: The Strategic Landscape and Actionable Research Questions [2.07180164747172]
人間性は、人間のエキスパートを著しく上回るAIシステムを開発するために、間もなく進もうとしているようだ。
我々は、デフォルトの軌道は人類の絶滅を含む大惨事の可能性が高いと信じている。
リスクは、強力なAIシステムを制御できないこと、悪意ある悪役によるAIの誤用、大国間の戦争、権威主義的なロックインなどにある。
論文 参考訳(メタデータ) (2025-05-07T17:35:36Z) - AI for All: Identifying AI incidents Related to Diversity and Inclusion [5.364403920214549]
本研究では,AIインシデントデータベースを手動で解析することで,AIシステム内のD&I問題を特定し,理解する。
分析されたAIインシデントのほぼ半数は、人種、性別、年齢差別の顕著な優位性を持つD&Iに関連している。
論文 参考訳(メタデータ) (2024-07-19T08:54:56Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Views on AI aren't binary -- they're plural [0.10241134756773229]
単純なバイナリはAI談話の正確なモデルではない、と私たちは主張する。
私たちは、AI開発とガバナンスに取り組んでいる人々の広いコミュニティにおいて、個人がus-vs-themの衝突の発生を避けるためにどのように役立つかを具体的に提案します。
論文 参考訳(メタデータ) (2023-12-21T17:50:06Z) - AI Alignment: A Comprehensive Survey [69.61425542486275]
AIアライメントは、AIシステムが人間の意図や価値観に沿って振る舞うようにすることを目的としている。
AIアライメントの重要な目的として、ロバストネス、解釈可能性、制御可能性、倫理という4つの原則を特定します。
我々は、現在のアライメント研究を、前方アライメントと後方アライメントの2つの重要なコンポーネントに分解する。
論文 参考訳(メタデータ) (2023-10-30T15:52:15Z) - FATE in AI: Towards Algorithmic Inclusivity and Accessibility [0.0]
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
論文 参考訳(メタデータ) (2023-01-03T15:08:10Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Socially Responsible AI Algorithms: Issues, Purposes, and Challenges [31.382000425295885]
技術者とAI研究者は、信頼できるAIシステムを開発する責任がある。
AIと人間の長期的な信頼を構築するためには、アルゴリズムの公正性を超えて考えることが鍵だ、と私たちは主張する。
論文 参考訳(メタデータ) (2021-01-01T17:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。