論文の概要: What does it mean to be an AI Ethicist: An ontology of existing roles
- arxiv url: http://arxiv.org/abs/2205.03946v1
- Date: Sun, 8 May 2022 20:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:45:59.245593
- Title: What does it mean to be an AI Ethicist: An ontology of existing roles
- Title(参考訳): AI倫理主義者とは何を意味するか:既存の役割のオントロジー
- Authors: Shalaleh Rismani, AJung Moon
- Abstract要約: 業界におけるAI倫理学者の意味を考察し、この幅広い肩書の下で既存の役割のオントロジーと必要な能力を提案する。
提案されたオントロジーは、責任あるAIチームを構築しようとしている幹部やリーダーに、新しい学習目標とカリキュラムを作成するために必要な情報を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the increasing adoption of Artificial Intelligence systems (AIS) in
various application and the growing efforts to regulate such systems, a new set
of occupations has emerged in the industry. This new set of roles take
different titles and hold varying responsibilities. However, the individuals in
these roles are tasked with interpreting and operationalizing best practices
for developing ethical and safe AI systems. We will broadly refer to this new
set of occupations as AI ethicists and recognize that they often hold a
specific role in the intersection of technology development, business needs,
and societal implications. In this work, we examine what it means to be an AI
ethicist in the industry and propose an ontology of existing roles under this
broad title along with their required competencies. We create this ontology by
examining the job postings for such roles over the past two years and conduct
expert interviews with fourteen individuals who currently hold such a role in
the industry. The proposed ontology will inform executives and leaders who are
looking to build responsible AI teams and provide educators the necessary
information for creating new learning objectives and curriculum.
- Abstract(参考訳): さまざまな応用に人工知能システム(AIS)が採用され、そのようなシステムを規制しようとする動きが高まり、業界に新たな職業が出現している。
この新しい役割は異なる肩書きを持ち、様々な責任を負う。
しかし、これらの役割の個人は倫理的で安全なAIシステムを開発するためのベストプラクティスを解釈し、運用することを任務としている。
私たちはこの新しい職業をai倫理主義者として広く言及し、技術開発、ビジネスニーズ、社会的な影響の交点において、それらが特定の役割を担っていることを認識します。
本研究では,業界におけるAI倫理学者の意義を考察し,この広い肩書の下での既存の役割のオントロジーと必要な能力を提案する。
このオントロジは、過去2年間にこうした役割の求人を調査し、現在業界でそのような役割を担っている14人の個人と専門的なインタビューを行うことによって生み出す。
提案されたオントロジーは、責任あるaiチームを構築したい幹部やリーダーに通知し、新しい学習目標とカリキュラムを作成するために必要な情報を提供する。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - POLARIS: A framework to guide the development of Trustworthy AI systems [3.02243271391691]
ハイレベルなAI倫理原則と、AI専門家のための低レベルな具体的なプラクティスの間には、大きなギャップがある。
我々は、理論と実践のギャップを埋めるために設計された、信頼に値するAIのための新しい総合的なフレームワークを開発する。
私たちの目標は、AIプロフェッショナルが信頼できるAIの倫理的側面を確実にナビゲートできるようにすることです。
論文 参考訳(メタデータ) (2024-02-08T01:05:16Z) - A Game-Theoretic Framework for AI Governance [8.658519485150423]
規制当局とAI企業間の戦略的相互作用は、Stackelbergのゲームを連想させる固有の構造を持っていることを示す。
本稿では,AIガバナンスのためのゲーム理論モデリングフレームワークを提案する。
私たちの知る限りでは、この研究はAIガバナンスの分析と構造化にゲーム理論を使った最初のものである。
論文 参考訳(メタデータ) (2023-05-24T08:18:42Z) - Connecting the Dots in Trustworthy Artificial Intelligence: From AI
Principles, Ethics, and Key Requirements to Responsible AI Systems and
Regulation [22.921683578188645]
私たちは、真に信頼できるAIを達成することは、システムのライフサイクルの一部であるすべてのプロセスとアクターの信頼性を懸念する、と論じています。
AIベースのシステムの倫理的利用と開発のためのグローバルな原則、AI倫理に対する哲学的な見解、AI規制に対するリスクベースのアプローチである。
信頼できるAIに関する私たちの学際的なビジョンは、最近発表されたAIの未来に関するさまざまな見解に関する議論で頂点に達した。
論文 参考訳(メタデータ) (2023-05-02T09:49:53Z) - Metaethical Perspectives on 'Benchmarking' AI Ethics [81.65697003067841]
ベンチマークは、人工知能(AI)研究の技術的進歩を測定するための基盤とみられている。
AIの顕著な研究領域は倫理であり、現在、ベンチマークのセットも、AIシステムの「倫理性」を測定する一般的な方法もない。
我々は、現在と将来のAIシステムのアクションを考えるとき、倫理よりも「価値」について話す方が理にかなっていると論じる。
論文 参考訳(メタデータ) (2022-04-11T14:36:39Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - An Ethical Framework for Guiding the Development of Affectively-Aware
Artificial Intelligence [0.0]
本稿では、感情認識型AIの倫理的結果(道徳的・倫理的結果)を評価するためのガイドラインを提案する。
我々は,AI開発者による倫理的責任を分離し,そのようなAIをデプロイするエンティティをビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビビ
最終的には研究者、開発者、オペレーター、規制当局、法執行機関への勧告で終わります。
論文 参考訳(メタデータ) (2021-07-29T03:57:53Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。