論文の概要: Risks of AI Foundation Models in Education
- arxiv url: http://arxiv.org/abs/2110.10024v1
- Date: Tue, 19 Oct 2021 14:44:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-20 17:07:07.428103
- Title: Risks of AI Foundation Models in Education
- Title(参考訳): 教育におけるAI基盤モデルのリスク
- Authors: Su Lin Blodgett, Michael Madaio
- Abstract要約: 創始モデル」は、AIと、それらが使用されると思われる分野(教育を含む)のパラダイムシフトを表す。
このような技術は広く語られる可能性があるが、教育分野での利用は特に薄れつつある。
エビデンスによれば、基礎モデルが学習者にとってのメリットを達成できないだけでなく、その使用によって新たなリスクがもたらされることが示唆されている。
- 参考スコア(独自算出の注目度): 5.152565350059199
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: If the authors of a recent Stanford report (Bommasani et al., 2021) on the
opportunities and risks of "foundation models" are to be believed, these models
represent a paradigm shift for AI and for the domains in which they will
supposedly be used, including education. Although the name is new (and
contested (Field, 2021)), the term describes existing types of algorithmic
models that are "trained on broad data at scale" and "fine-tuned" (i.e.,
adapted) for particular downstream tasks, and is intended to encompass large
language models such as BERT or GPT-3 and computer vision models such as CLIP.
Such technologies have the potential for harm broadly speaking (e.g., Bender et
al., 2021), but their use in the educational domain is particularly fraught,
despite the potential benefits for learners claimed by the authors. In section
3.3 of the Stanford report, Malik et al. argue that achieving the goal of
providing education for all learners requires more efficient computational
approaches that can rapidly scale across educational domains and across
educational contexts, for which they argue foundation models are uniquely
well-suited. However, evidence suggests that not only are foundation models not
likely to achieve the stated benefits for learners, but their use may also
introduce new risks for harm.
- Abstract(参考訳): 最近のスタンフォード大学のレポート(Bommasani et al., 2021)の著者が、"基礎モデル"の機会とリスクを信じるならば、これらのモデルは、AIと、それらが使用されると思われる分野(教育を含む)のパラダイムシフトを表している。
名前は新しい(そして2021年のField)が、この用語は「大規模に広範に訓練された」アルゴリズムモデルと特定の下流タスクのための「微調整された」(すなわち適応された)アルゴリズムモデルであり、BERTやGPT-3のような大きな言語モデルやCLIPのようなコンピュータビジョンモデルを含むことを意図している。
このような技術は広く語られる可能性があり(例えば、ベンダーなど2021年)、教育分野での使用は、著者が主張する学習者にとって潜在的に有益であるにもかかわらず、特に不利である。
スタンフォード大学レポートのセクション3.3で、malikらは、すべての学習者に教育を提供するという目標を達成するには、教育ドメインと教育コンテキストにまたがって迅速に拡張可能な、より効率的な計算アプローチが必要であると主張している。
しかし, 基礎モデルが学習者にとってのメリットを達成できないだけでなく, 新たなリスクがもたらされる可能性が示唆されている。
関連論文リスト
- Knowledge-Aware Parsimony Learning: A Perspective from Relational Graphs [47.6830995661091]
我々は、より単純なモデルでより大きなポテンシャルを達成するために、擬似的に次世代モデルを開発する。
鍵となるのは、スケーリングの法則に頼るのではなく、記号やロジック、公式といったドメイン固有の知識を使ってモデルを駆動することだ。
このアプローチによって、モデル設計、トレーニング、解釈のパーシモニーを達成するために、この知識を"ビルディングブロック"として使用するフレームワークを構築することができます。
論文 参考訳(メタデータ) (2024-06-29T15:52:37Z) - Reinforcement Learning for Generative AI: A Survey [40.21640713844257]
この調査は、さまざまなアプリケーション領域にまたがるハイレベルなレビューに光を当てることを目的としています。
この領域では厳格な分類法を提供し、様々なモデルや応用について十分なカバレッジを提供している。
この調査は、現在のモデルの限界に対処し、生成AIのフロンティアを拡大する可能性のある潜在的方向を示すことで締めくくられる。
論文 参考訳(メタデータ) (2023-08-28T06:15:14Z) - Foundation models in brief: A historical, socio-technical focus [2.5991265608180396]
ディープラーニングをスケールアップすることで、将来のAI開発には、ファンデーションモデルが破壊的になる可能性がある。
モデルは自然言語処理やコンピュータビジョンといった分野における様々なタスクにおいて最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-12-17T22:11:33Z) - Self-Destructing Models: Increasing the Costs of Harmful Dual Uses of
Foundation Models [103.71308117592963]
本稿ではメタラーニングと逆学習の技法を活用した自己破壊モデルの学習アルゴリズムを提案する。
小規模な実験では、MLACは、BERTスタイルのモデルが性別識別を行うために再目的化されることをほとんど防ぐことができることを示す。
論文 参考訳(メタデータ) (2022-11-27T21:43:45Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Unsupervised Pre-training with Structured Knowledge for Improving
Natural Language Inference [22.648536283569747]
本研究では,事前学習モデルの異なるコンポーネントにおける構造化知識を活用するモデルを提案する。
以上の結果から,提案モデルは従来のBERTモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-08T21:28:12Z) - On the Opportunities and Risks of Foundation Models [256.61956234436553]
これらのモデルの基礎モデルは、批判的に中心的だが不完全な性格を根底から立証するものです。
本報告では,基礎モデルの可能性とリスクについて概説する。
これらの疑問に対処するためには、基礎モデルに関する重要な研究の多くは、深い学際的なコラボレーションが必要であると信じている。
論文 参考訳(メタデータ) (2021-08-16T17:50:08Z) - Exploring Bayesian Deep Learning for Urgent Instructor Intervention Need
in MOOC Forums [58.221459787471254]
大規模なオープンオンラインコース(MOOC)は、その柔軟性のおかげで、eラーニングの一般的な選択肢となっている。
多くの学習者とその多様な背景から、リアルタイムサポートの提供は課税されている。
MOOCインストラクターの大量の投稿と高い作業負荷により、インストラクターが介入を必要とするすべての学習者を識別できる可能性は低いです。
本稿では,モンテカルロドロップアウトと変分推論という2つの手法を用いて,学習者によるテキスト投稿のベイジアン深層学習を初めて検討する。
論文 参考訳(メタデータ) (2021-04-26T15:12:13Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。