論文の概要: Building Bridges: Generative Artworks to Explore AI Ethics
- arxiv url: http://arxiv.org/abs/2106.13901v1
- Date: Fri, 25 Jun 2021 22:31:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-29 17:57:29.068609
- Title: Building Bridges: Generative Artworks to Explore AI Ethics
- Title(参考訳): ビルディングブリッジ:AI倫理を探求するジェネレーティブアートワーク
- Authors: Ramya Srinivasan and Devi Parikh
- Abstract要約: 近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
- 参考スコア(独自算出の注目度): 56.058588908294446
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In recent years, there has been an increased emphasis on understanding and
mitigating adverse impacts of artificial intelligence (AI) technologies on
society. Across academia, industry, and government bodies, a variety of
endeavours are being pursued towards enhancing AI ethics. A significant
challenge in the design of ethical AI systems is that there are multiple
stakeholders in the AI pipeline, each with their own set of constraints and
interests. These different perspectives are often not understood, due in part
to communication gaps.For example, AI researchers who design and develop AI
models are not necessarily aware of the instability induced in consumers' lives
by the compounded effects of AI decisions. Educating different stakeholders
about their roles and responsibilities in the broader context becomes
necessary. In this position paper, we outline some potential ways in which
generative artworks can play this role by serving as accessible and powerful
educational tools for surfacing different perspectives. We hope to spark
interdisciplinary discussions about computational creativity broadly as a tool
for enhancing AI ethics.
- Abstract(参考訳): 近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
学術、産業、政府機関全体で、AI倫理の強化に向けた様々な取り組みが追求されている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
例えば、AIモデルを設計し開発するAI研究者は、AI決定の複合的な効果によって消費者の生活に生じる不安定性を必ずしも認識していない。
より広い文脈で、異なるステークホルダーの役割と責任について教育する必要がある。
本稿では,異なる視点を捉えるためのアクセス可能で強力な教育ツールとして機能することにより,生成的アートワークがこの役割を果たす可能性について概説する。
AI倫理を強化するツールとして、計算創造性に関する学際的な議論を広く起こしたいと考えています。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Navigating AI in Social Work and Beyond: A Multidisciplinary Review [0.0]
このレビューは、2025年の夜明けとして、より広い社会的、学術的な会話にAIを集中させる、包括的でアクセスしやすい概要を提供することを目的としている。
これはAIの現実世界への影響、倫理的課題、社会労働への影響を簡潔に分析する。
高度なパーソナライズド・シミュレーショントレーニングを通じて、ソーシャルワーク教育を変革できるAIファシリテート・シミュレーションのビジョンを提供する。
論文 参考訳(メタデータ) (2024-10-25T05:51:23Z) - AI Thinking: A framework for rethinking artificial intelligence in practice [2.9805831933488127]
現在、AIの実践についての研究、開発、評価に様々な分野が関わっている。
新しい学際的アプローチは、実際にAIの競合する概念化を橋渡しするために必要である。
このフレームワークは、学際的な視点でAIの使用に関する重要な決定と考察をモデル化する。
論文 参考訳(メタデータ) (2024-08-26T04:41:21Z) - Visions of a Discipline: Analyzing Introductory AI Courses on YouTube [11.209406323898019]
われわれはYouTubeで最も視聴された20のAIコースを分析した。
導入型AIコースは、AIの倫理的または社会的課題に有意義に関わっていない。
我々は、よりバランスのとれた視点を示すために、AIの倫理的課題を強調しておくことを推奨する。
論文 参考訳(メタデータ) (2024-05-31T01:48:42Z) - Now, Later, and Lasting: Ten Priorities for AI Research, Policy, and Practice [63.20307830884542]
今後数十年は、産業革命に匹敵する人類の転換点になるかもしれない。
10年前に立ち上げられたこのプロジェクトは、複数の専門分野の専門家による永続的な研究にコミットしている。
AI技術の短期的および長期的影響の両方に対処する、アクションのための10のレコメンデーションを提供します。
論文 参考訳(メタデータ) (2024-04-06T22:18:31Z) - The Ethics of AI in Education [0.0]
人工知能の研究室ベースの科学から生きた人間の文脈への移行は多くの歴史的、社会文化的偏見、不平等、道徳的ジレンマに焦点を合わせている。
AIの幅広い倫理に関する疑問は、教育におけるAI(AIED)にも関係している。
AIEDは、その技術がユーザに与える影響、そのような技術が私たちが学び、教える方法の強化や変更にどのように使われるか、そして私たちが社会や個人として、教育の成果として価値あるものについて、さらなる課題を提起します。
論文 参考訳(メタデータ) (2024-03-22T11:41:37Z) - Artificial intelligence and the transformation of higher education
institutions [0.0]
本稿では、典型的なHEIにおけるAI変換の因果フィードバック機構をマッピングするための因果ループ図(CLD)を開発する。
私たちのモデルは、AI変革を駆動する力と、典型的なHEIにおける価値創造に対するAI変革の結果について説明します。
この記事では、学生の学習、研究、管理を改善するために、HEIがAIに投資する方法について、いくつかの強化とバランスの取れたフィードバックループを特定し、分析する。
論文 参考訳(メタデータ) (2024-02-13T00:36:10Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。