論文の概要: AI Development for the Public Interest: From Abstraction Traps to
Sociotechnical Risks
- arxiv url: http://arxiv.org/abs/2102.04255v1
- Date: Thu, 4 Feb 2021 18:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 19:52:46.153065
- Title: AI Development for the Public Interest: From Abstraction Traps to
Sociotechnical Risks
- Title(参考訳): 公益のためのAI開発:抽象的トラップから社会技術的リスクへ
- Authors: McKane Andrus, Sarah Dean, Thomas Krendl Gilbert, Nathan Lambert, Tom
Zick
- Abstract要約: AIの安全性、公正機械学習(Fair ML)、HIL(Human-in-the-Loop)オートノミー(Human-in-the-Loop)の3つの分野における社会技術調査の出現を追跡調査する。
各サブフィールドにおいて、PIT(Public Interest Technology)の認識は、規範的社会秩序の中での技術的システムの過去の統合によって直面する特定の危険に起因していることを示す。
本稿では,AIにおける社会工学系大学院教育への統一的アプローチのロードマップを示す。
- 参考スコア(独自算出の注目度): 2.765897573789737
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite interest in communicating ethical problems and social contexts within
the undergraduate curriculum to advance Public Interest Technology (PIT) goals,
interventions at the graduate level remain largely unexplored. This may be due
to the conflicting ways through which distinct Artificial Intelligence (AI)
research tracks conceive of their interface with social contexts. In this paper
we track the historical emergence of sociotechnical inquiry in three distinct
subfields of AI research: AI Safety, Fair Machine Learning (Fair ML) and
Human-in-the-Loop (HIL) Autonomy. We show that for each subfield, perceptions
of PIT stem from the particular dangers faced by past integration of technical
systems within a normative social order. We further interrogate how these
histories dictate the response of each subfield to conceptual traps, as defined
in the Science and Technology Studies literature. Finally, through a
comparative analysis of these currently siloed fields, we present a roadmap for
a unified approach to sociotechnical graduate pedagogy in AI.
- Abstract(参考訳): 公益技術(Public Interest Technology, PIT)の目標を達成するために、学部のカリキュラム内で倫理的問題や社会的文脈を伝えることに関心があるにもかかわらず、大学院レベルの介入はほとんど未調査のままである。
これは、異なる人工知能(AI)研究が社会的文脈とのインターフェースを意図的に追跡する相反する方法による可能性があります。
本稿では,AI研究の3つの分野,AI Safety,Fair Machine Learning (Fair ML),Human-in-the-Loop (HIL) Autonomyにおける社会技術探究の歴史的出現を追究する。
各サブフィールドにおいて、PITの認識は、規範的社会秩序における技術的システムの統合が直面する特定の危険に起因していることを示す。
さらに、これらの歴史は、科学技術研究文献で定義されている概念的なトラップに対する各サブフィールドの応答を指示する方法を解釈します。
最後に、現在サイロ化されている分野の比較分析を通じて、AIにおける社会技術大学院教育への統一的アプローチのロードマップを提示する。
関連論文リスト
- Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
概念マッピングを用いて、AIの多分野研究で使用される107の異なる用語を識別する。
我々は,AIベースの政府向けシステム(AI-GOV)を統合的で先進的な方法で研究するための,新しい3つの多面的概念を提案する。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Coordinated Science Laboratory 70th Anniversary Symposium: The Future of
Computing [80.72844751804166]
2021年、コーディネート・サイエンス研究所(CSL)は70周年を記念して、Future of Computing Symposiumを開催した。
シンポジウムで提案された主要な技術的ポイント、洞察、方向性を要約する。
参加者は、新しいコンピューティングパラダイム、技術、アルゴリズム、行動、そして将来予想される研究課題に関するトピックについて議論した。
論文 参考訳(メタデータ) (2022-10-04T17:32:27Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Characterising Research Areas in the field of AI [68.8204255655161]
トピックの共起ネットワーク上でクラスタリング分析を行うことで,主要な概念テーマを特定した。
その結果は、ディープラーニングや機械学習、物のインターネットといった研究テーマに対する学術的関心の高まりを浮き彫りにしている。
論文 参考訳(メタデータ) (2022-05-26T16:30:30Z) - Stakeholder Participation in AI: Beyond "Add Diverse Stakeholders and
Stir" [76.44130385507894]
本稿では、既存の文献の参加と現在の実践の実証分析を通じて、AI設計における「参加的転換」を掘り下げることを目的としている。
本稿では,本論文の文献合成と実証研究に基づいて,AI設計への参加的アプローチを解析するための概念的枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T17:57:04Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Axes for Sociotechnical Inquiry in AI Research [3.0215443986383734]
技術開発の新たな発展領域を探求する4つの方向を提案する。
本論文は、社会技術調査のためのレキシコンを提供し、消費者向けドローン技術の例を通してそれを解説する。
論文 参考訳(メタデータ) (2021-04-26T16:49:04Z) - The Short Anthropological Guide to the Study of Ethical AI [91.3755431537592]
ショートガイドは、AI倫理と社会科学の紹介と、AIの開発に関する人類学的視点の両方を兼ね備えている。
AIシステムの社会的影響と、これらのシステムがいかにして我々の世界がどのように機能するかを再考するかについての洞察を、この分野に馴染みのない人たちに提供することを目指している。
論文 参考訳(メタデータ) (2020-10-07T12:25:03Z) - AI in society and culture: decision making and values [0.0]
いくつかの学術的な議論、社会相談、影響研究が、人間と機械の生態系の変化の鍵となる側面を明らかにするために利用可能である。
詳細では、社会文化的フィルター、人間機械による決定の分類、価値に基づくAIの視点がこの文献レビューの焦点となっている。
より深く理解するために、技術を超えた問題を調査する次世代AIに関する大規模な調査にステークホルダーを招待することが提案されている。
論文 参考訳(メタデータ) (2020-04-29T07:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。