論文の概要: A multidomain relational framework to guide institutional AI research
and adoption
- arxiv url: http://arxiv.org/abs/2303.10106v2
- Date: Mon, 17 Jul 2023 11:53:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-21 18:18:09.224142
- Title: A multidomain relational framework to guide institutional AI research
and adoption
- Title(参考訳): 機関的AI研究と導入を導く多ドメイン関係フレームワーク
- Authors: Vincent J. Straub, Deborah Morgan, Youmna Hashem, John Francis, Saba
Esnaashari, Jonathan Bright
- Abstract要約: 我々は、AIを採用することの意味を理解することを目的とした研究努力が、ほんの一握りのアイデアだけを優先する傾向があると論じている。
本稿では,フィールド間の用語を整理する概念的枠組みとして,シンプルなポリシーと研究設計ツールを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Calls for new metrics, technical standards and governance mechanisms to guide
the adoption of Artificial Intelligence (AI) in institutions and public
administration are now commonplace. Yet, most research and policy efforts aimed
at understanding the implications of adopting AI tend to prioritize only a
handful of ideas; they do not fully connect all the different perspectives and
topics that are potentially relevant. In this position paper, we contend that
this omission stems, in part, from what we call the relational problem in
socio-technical discourse: fundamental ontological issues have not yet been
settled--including semantic ambiguity, a lack of clear relations between
concepts and differing standard terminologies. This contributes to the
persistence of disparate modes of reasoning to assess institutional AI systems,
and the prevalence of conceptual isolation in the fields that study them
including ML, human factors, social science and policy. After developing this
critique, we offer a way forward by proposing a simple policy and research
design tool in the form of a conceptual framework to organize terms across
fields--consisting of three horizontal domains for grouping relevant concepts
and related methods: Operational, Epistemic, and Normative. We first situate
this framework against the backdrop of recent socio-technical discourse at two
premier academic venues, AIES and FAccT, before illustrating how developing
suitable metrics, standards, and mechanisms can be aided by operationalizing
relevant concepts in each of these domains. Finally, we outline outstanding
questions for developing this relational approach to institutional AI research
and adoption.
- Abstract(参考訳): 機関や行政における人工知能(AI)の採用を導くための新しいメトリクス、技術標準、ガバナンスメカニズムが現在一般的である。
しかし、AIを採用することの意味を理解することを目的としたほとんどの研究と政策の取り組みは、ほんの一握りのアイデアだけを優先する傾向がある。
In this position paper, we contend that this omission stems, in part, from what we call the relational problem in socio-technical discourse: fundamental ontological issues have not yet been settled--including semantic ambiguity, a lack of clear relations between concepts and differing standard terminologies. This contributes to the persistence of disparate modes of reasoning to assess institutional AI systems, and the prevalence of conceptual isolation in the fields that study them including ML, human factors, social science and policy. After developing this critique, we offer a way forward by proposing a simple policy and research design tool in the form of a conceptual framework to organize terms across fields--consisting of three horizontal domains for grouping relevant concepts and related methods: Operational, Epistemic, and Normative.
まず,2つの主要な学術会場であるAIESとFAccTの社会技術談話の背景に立ち,それぞれの領域で関連する概念を運用することで,適切なメトリクス,標準,メカニズムの開発をいかに支援できるかを説明する。
最後に,このリレーショナルアプローチを制度的AI研究や導入に適用するための,優れた質問を概説する。
関連論文リスト
- Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Resolving Ethics Trade-offs in Implementing Responsible AI [18.894725256708128]
初歩的なものから複雑なものまで、トレードオフを通じて緊張に対処するための5つのアプローチをカバーします。
いずれのアプローチも、すべての組織、システム、アプリケーションに適していない可能性が高い。
i)緊張の積極的な識別、(ii)倫理的側面の優先順位付けと重み付け、(iii)トレードオフ決定の正当化と文書化からなる枠組みを提案する。
論文 参考訳(メタデータ) (2024-01-16T04:14:23Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Towards a General Framework for Continual Learning with Pre-training [55.88910947643436]
本稿では,事前学習を用いた逐次到着タスクの連続学習のための一般的な枠組みを提案する。
我々はその目的を,タスク内予測,タスク同一性推論,タスク適応予測という3つの階層的構成要素に分解する。
本稿では,パラメータ効率細調整(PEFT)技術と表現統計量を用いて,これらのコンポーネントを明示的に最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2023-10-21T02:03:38Z) - The Participatory Turn in AI Design: Theoretical Foundations and the
Current State of Practice [64.29355073494125]
本稿は、既存の理論文献を合成して、AI設計における「参加的転換」を掘り下げることを目的としている。
我々は、最近発表された研究および12人のAI研究者および実践者に対する半構造化インタビューの分析に基づいて、AI設計における参加実践の現状に関する実証的な知見を述べる。
論文 参考訳(メタデータ) (2023-10-02T05:30:42Z) - Stronger Together: on the Articulation of Ethical Charters, Legal Tools,
and Technical Documentation in ML [5.433040083728602]
AIシステムの背後にいる人々の説明責任の必要性は、倫理、法、コンピュータサイエンスの3つの分野のプロセスを活用することで解決することができる。
まず、倫理、法律、技術分野におけるコンプライアンスの概念を対比する。
次に、フィールド間のシナジーを明確にする上での値の役割に焦点をあてる。
論文 参考訳(メタデータ) (2023-05-09T15:35:31Z) - Artificial intelligence in government: Concepts, standards, and a
unified framework [0.0]
人工知能(AI)の最近の進歩は、政府の変革を約束している。
新しいAIシステムは、社会の規範的な期待に沿うように振る舞うことが重要である。
論文 参考訳(メタデータ) (2022-10-31T10:57:20Z) - Tackling problems, harvesting benefits -- A systematic review of the
regulatory debate around AI [0.0]
社会の構造と運営にAIのような新興で全面的な技術を統合するには、現代の政治、科学、公共の議論がある。
本稿では,人工知能(AI)の規制に関する学術的議論を分析する。
この分析は、社会的リスクと害、規制責任の問題、そして可能な適切な政策枠組みに焦点を当てている。
論文 参考訳(メタデータ) (2022-09-07T11:29:30Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Ethical Assurance: A practical approach to the responsible design,
development, and deployment of data-driven technologies [0.0]
この記事では、データサイエンスとAIにおける責任ある研究とイノベーションに関する学際的プロジェクトへのコントリビューションを提供する。
まず、アルゴリズム評価の実践的なメカニズムを確立するための現在の取り組みについて批判的な分析を行う。
第二に、議論に基づく保証の方法論へのアクセシビリティな導入を提供する。
第3に,我々は「倫理的保証」と呼ぶ,議論に基づく保証の新たなバージョンを確立する。
論文 参考訳(メタデータ) (2021-10-11T11:21:49Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。