論文の概要: Bridging the Gap: the case for an Incompletely Theorized Agreement on AI
policy
- arxiv url: http://arxiv.org/abs/2101.06110v1
- Date: Thu, 7 Jan 2021 10:08:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-17 10:39:17.999347
- Title: Bridging the Gap: the case for an Incompletely Theorized Agreement on AI
policy
- Title(参考訳): ギャップを埋める:AI政策に関する不完全な理論化された合意
- Authors: Charlotte Stix and Matthijs M. Maas
- Abstract要約: 人工知能の最近の進歩は、幅広い倫理的・社会的懸念を提起している。
研究コミュニティは、短期的関心事を重視するものと、長期的関心事とそれに対応する政策措置に重点を置くものとに分かれている。
我々は,短期的・長期的視点を持つ学者が,選択された相互に有益なAI政策計画に集結し,協力できることを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent progress in artificial intelligence (AI) raises a wide array of
ethical and societal concerns. Accordingly, an appropriate policy approach is
needed today. While there has been a wave of scholarship in this field, the
research community at times appears divided amongst those who emphasize
near-term concerns, and those focusing on long-term concerns and corresponding
policy measures. In this paper, we seek to map and critically examine this
alleged gulf, with a view to understanding the practical space for
inter-community collaboration on AI policy. This culminates in a proposal to
make use of the legal notion of an incompletely theorized agreement. We propose
that on certain issue areas, scholars working with near-term and long-term
perspectives can converge and cooperate on selected mutually beneficial AI
policy projects all the while maintaining divergent perspectives.
- Abstract(参考訳): 人工知能(AI)の最近の進歩は、幅広い倫理的・社会的懸念を提起している。
そのため、現在では適切な政策アプローチが必要である。
この分野では奨学金の波が流れているが、研究コミュニティは短期的関心事を重視するものと、長期的関心事や対応政策に重点を置くものとに分かれている。
本稿では,AI政策におけるコミュニティ間コラボレーションの実践的空間の理解をめざして,この問題を地図化し,批判的に検証する。
これは、不完全な理論化された合意の法的概念を利用するという提案で終わる。
我々は、特定の課題領域において、短期的および長期的視点に取り組む研究者は、異なる視点を維持しながら、選択された相互に有益なai政策プロジェクトに収束し、協力することができると提案する。
関連論文リスト
- Crossing the principle-practice gap in AI ethics with ethical problem-solving [0.0]
AI開発の技術的側面から倫理的言説を分離する原則-実践的ギャップを埋めるには、依然として未解決の問題である。
EPSは、責任、人間中心、価値指向のAI開発を促進する方法論である。
EPSを青写真として利用し、Ethics as a Service Platformの実装を提案します。
論文 参考訳(メタデータ) (2024-04-16T14:35:13Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible AI Considerations in Text Summarization Research: A Review
of Current Practices [89.85174013619883]
私たちは、責任あるAIコミュニティがほとんど見落としている共通のNLPタスクである、テキスト要約に重点を置いています。
我々は,2020-2022年に出版されたACLアンソロジーから333の要約論文の多段階的質的分析を行った。
私たちは、どの、どの、どの責任あるAI問題がカバーされているか、どの関係するステークホルダーが考慮されているか、そして、述べられた研究目標と実現された研究目標のミスマッチに焦点を合わせます。
論文 参考訳(メタデータ) (2023-11-18T15:35:36Z) - Report of the 1st Workshop on Generative AI and Law [78.62063815165968]
本報告では、生成AIと法に関する第1回ワークショップ(GenLaw)の開催状況について述べる。
コンピュータサイエンスと法学の実践者や学者の学際的なグループが集まり、ジェネレーティブAI法がもたらす技術的、教義的、政策上の課題について議論した。
論文 参考訳(メタデータ) (2023-11-11T04:13:37Z) - Regulation and NLP (RegNLP): Taming Large Language Models [51.41095330188972]
我々は,NLP研究が規制研究や隣接分野に近接することのメリットを論じる。
我々は、規制とNLPに関する新しい多分野研究空間の開発を提唱する。
論文 参考訳(メタデータ) (2023-10-09T09:22:40Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Contextualizing Artificially Intelligent Morality: A Meta-Ethnography of
Top-Down, Bottom-Up, and Hybrid Models for Theoretical and Applied Ethics in
Artificial Intelligence [0.0]
このメタエスノグラフィーでは、倫理的人工知能(AI)設計の3つの異なる角度を探索する。
この枠組みへの新たな貢献は、企業や政府によって決定され、政策または法(トップから来る)によって課されるAIの倫理を構成する政治的アングルである。
ボトムアップの応用技術アプローチとAI倫理原則を実践的なトップダウンアプローチとして示すものとして、強化学習に焦点が当てられている。
論文 参考訳(メタデータ) (2022-04-15T18:47:49Z) - Descriptive AI Ethics: Collecting and Understanding the Public Opinion [10.26464021472619]
本研究では、規範的および記述的研究が相互補完できる混合AI倫理モデルを提案する。
我々は、AIシステムの展開に対する楽観的見解と悲観的見解のギャップを埋めることにその影響について論じる。
論文 参考訳(メタデータ) (2021-01-15T03:46:27Z) - The Tragedy of the AI Commons [0.0]
我々は進化ゲーム力学を用いて、人工知能の倫理的発展の文脈における社会的ジレンマをモデル化する。
このようなシナリオでは,効果によって協調が実現可能であることを示す。
彼らは、協力のコストが低く、失敗のリスクが高い小さなグループで共通の利益の調整を試みるべきであることを示唆している。
論文 参考訳(メタデータ) (2020-06-09T12:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。