論文の概要: Un jeu a debattre pour sensibiliser a l'Intelligence Artificielle dans
le contexte de la pandemie de COVID-19
- arxiv url: http://arxiv.org/abs/2304.12186v1
- Date: Wed, 19 Apr 2023 09:06:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:48:46.869988
- Title: Un jeu a debattre pour sensibiliser a l'Intelligence Artificielle dans
le contexte de la pandemie de COVID-19
- Title(参考訳): 新型コロナウイルス(covid-19)のパンデミア状況に就て
- Authors: Carole Adam, C\'edric Lauradoux
- Abstract要約: 我々は,パンデミックを制御するためのAIソリューションの選択を目的とした市民討論という形で,真剣なゲームを提案する。
このゲームは高校生をターゲットにしており、科学フェアで初めて実験され、現在は無料で利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Artificial Intelligence is more and more pervasive in our lives. Many
important decisions are delegated to AI algorithms: accessing higher education,
determining prison sentences, autonomously driving vehicles... Engineers and
researchers are educated to this field, while the general population has very
little knowledge about AI. As a result, they are very sensitive to the (more or
less accurate) ideas disseminated by the media: an AI that is unbiased,
infallible, and will either save the world or lead to its demise. We therefore
believe, as highlighted by UNESCO, that it is essential to provide the
population with a general understanding of AI algorithms, so that they can
choose wisely whether to use them (or not). To this end, we propose a serious
game in the form of a civic debate aiming at selecting an AI solution to
control a pandemic. This game is targeted at high school students, it was first
experimented during a science fair, and is now available freely.
- Abstract(参考訳): 人工知能は私たちの生活にますます浸透している。
多くの重要な決定はAIアルゴリズムに委譲されている。高等教育へのアクセス、懲役刑の判決、自動運転車の運転などだ。
エンジニアや研究者はこの分野に教育を受けているが、一般市民はaiに関する知識がほとんどない。
結果として、彼らはメディアによって広められる(より正確には)アイデアに非常に敏感である。
したがって、ユネスコが強調したように、AIアルゴリズムの一般的な理解を人口に提供することが不可欠である。
そこで我々は,パンデミックを制御するAIソリューションの選択を目的とした市民討論という形で,真剣なゲームを提案する。
このゲームは高校生をターゲットにしており、科学フェアで初めて実験され、現在は無料で利用できる。
関連論文リスト
- Need of AI in Modern Education: in the Eyes of Explainable AI (xAI) [0.0]
この章は、AIの操作方法、特にバイアスに関する複雑な方法を明かそうとしている。
これらは、より信頼性があり、説明責任があり、すべての関係者にとって有益な方法でAIを使用することを含む、より良い教育政策に向けた基本的なステップである。
論文 参考訳(メタデータ) (2024-07-31T08:11:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - AI in Games: Techniques, Challenges and Opportunities [40.86375378643978]
Libratus、OpenAI Five、AlphaStarといった様々なゲームAIシステムが開発され、プロの人間プレイヤーに勝っている。
本稿では,最近成功したゲームAI,ボードゲームAI,カードゲームAI,ファーストパーソンシューティングゲームAI,リアルタイム戦略ゲームAIについて調査する。
論文 参考訳(メタデータ) (2021-11-15T09:35:53Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - "Weak AI" is Likely to Never Become "Strong AI", So What is its Greatest
Value for us? [4.497097230665825]
多くの研究者は、ここ数十年でAIがほとんど進歩していないと主張している。
著者は、AIに関する議論が存在する理由を説明します。(2)「弱いAI」と「強いAI」と呼ばれる2つのAI研究パラダイムを区別します。
論文 参考訳(メタデータ) (2021-03-29T02:57:48Z) - Towards AI Forensics: Did the Artificial Intelligence System Do It? [2.5991265608180396]
私たちは、デザインとグレーボックス分析によって潜在的に悪意のあるAIに焦点を当てています。
畳み込みニューラルネットワークによる評価は、悪意のあるAIを特定する上での課題とアイデアを示している。
論文 参考訳(メタデータ) (2020-05-27T20:28:19Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。