論文の概要: Is a Seat at the Table Enough? Engaging Teachers and Students in Dataset
Specification for ML in Education
- arxiv url: http://arxiv.org/abs/2311.05792v1
- Date: Thu, 9 Nov 2023 23:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-13 16:23:10.132333
- Title: Is a Seat at the Table Enough? Engaging Teachers and Students in Dataset
Specification for ML in Education
- Title(参考訳): テーブルの席は十分ですか。
教育における教師と学生の機械学習のデータセット仕様化
- Authors: Mei Tan, Hansol Lee, Dakuo Wang, Hariharan Subramonyam
- Abstract要約: 教育におけるMLの約束にもかかわらず、その採用は公平性、説明責任、透明性に関する多くの問題に直面している。
これらの問題の根本原因は、教育の複雑なダイナミクスの理解の欠如である。
- 参考スコア(独自算出の注目度): 28.899007394121416
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the promises of ML in education, its adoption in the classroom has
surfaced numerous issues regarding fairness, accountability, and transparency,
as well as concerns about data privacy and student consent. A root cause of
these issues is the lack of understanding of the complex dynamics of education,
including teacher-student interactions, collaborative learning, and classroom
environment. To overcome these challenges and fully utilize the potential of ML
in education, software practitioners need to work closely with educators and
students to fully understand the context of the data (the backbone of ML
applications) and collaboratively define the ML data specifications. To gain a
deeper understanding of such a collaborative process, we conduct ten co-design
sessions with ML software practitioners, educators, and students. In the
sessions, teachers and students work with ML engineers, UX designers, and legal
practitioners to define dataset characteristics for a given ML application. We
find that stakeholders contextualize data based on their domain and procedural
knowledge, proactively design data requirements to mitigate downstream harms
and data reliability concerns, and exhibit role-based collaborative strategies
and contribution patterns. Further, we find that beyond a seat at the table,
meaningful stakeholder participation in ML requires structured supports:
defined processes for continuous iteration and co-evaluation, shared contextual
data quality standards, and information scaffolds for both technical and
non-technical stakeholders to traverse expertise boundaries.
- Abstract(参考訳): 教育におけるMLの約束にもかかわらず、教室でのMLの採用は、公正性、説明責任、透明性、データプライバシと学生の同意に関する懸念など、多くの問題に直面している。
これらの問題の根本原因は、教師と学生の交流、協調学習、教室環境など、教育の複雑なダイナミクスの理解の欠如である。
これらの課題を克服し、教育におけるMLの可能性を完全に活用するために、ソフトウェア実践者は、データ(MLアプリケーションのバックボーン)のコンテキストを完全に理解し、MLデータ仕様を協調的に定義するために、教育者や学生と密接に協力する必要がある。
このような協調的なプロセスをより深く理解するために,MLソフトウェア実践者,教育者,学生らと共同設計セッションを10回実施する。
セッションでは、教師と学生がMLエンジニア、UXデザイナ、法的実践者とともに、特定のMLアプリケーションのデータセット特性を定義する。
利害関係者は、自身のドメインと手続き知識に基づいてデータをコンテキスト化し、下流の危害やデータの信頼性の懸念を軽減するために積極的にデータ要件を設計し、ロールベースの協調戦略と貢献パターンを示す。
さらに、テーブルに座るだけでなく、MLへの有意義なステークホルダーの参加には、継続的イテレーションと共同評価のためのプロセスの定義、コンテキストデータ品質標準の共有、専門知識の境界を越える技術的利害関係者と非技術的利害関係者の両方のための情報足場といった、構造化されたサポートが必要です。
関連論文リスト
- Benchmarking Vision Language Model Unlearning via Fictitious Facial Identity Dataset [94.13848736705575]
我々は、未学習アルゴリズムの有効性を頑健に評価するために設計された新しいVLMアンラーニングベンチマークであるFacial Identity Unlearning Benchmark (FIUBench)を紹介する。
情報ソースとその露出レベルを正確に制御する2段階評価パイプラインを適用した。
FIUBench 内の 4 つのベースライン VLM アンラーニングアルゴリズムの評価により,すべての手法がアンラーニング性能に制限されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-05T23:26:10Z) - Exploring Knowledge Tracing in Tutor-Student Dialogues [53.52699766206808]
本稿では,教師と学生の対話における知識追跡(KT)の最初の試みについて述べる。
そこで本研究では,対話の各ターンに係わる知識コンポーネントやスキルを同定する手法を提案する。
次に,得られたラベル付きデータに様々なKT手法を適用し,対話全体を通して学生の知識レベルを追跡する。
論文 参考訳(メタデータ) (2024-09-24T22:31:39Z) - Faculty Perspectives on the Potential of RAG in Computer Science Higher Education [0.0]
仮想教示アシスタントと教示アシスタントの2つのタスクに対する検索補助(RAG)アプリケーションを開発した。
本研究は,LLMに基づくRAGの教育への応用に関する教員のフィードバックを収集した初めてのものである。
論文 参考訳(メタデータ) (2024-07-28T14:55:22Z) - SINKT: A Structure-Aware Inductive Knowledge Tracing Model with Large Language Model [64.92472567841105]
知識追跡(KT)は、学生が次の質問に正しく答えるかどうかを判断することを目的としている。
大規模言語モデルを用いた構造認識帰納的知識追跡モデル(SINKT)
SINKTは、学生の知識状態と質問表現とを相互作用させることで、対象の質問に対する学生の反応を予測する。
論文 参考訳(メタデータ) (2024-07-01T12:44:52Z) - FATE in MMLA: A Student-Centred Exploration of Fairness, Accountability,
Transparency, and Ethics in Multimodal Learning Analytics [0.0]
本研究は,MMLAビジュアライゼーションを用いて,学生の公正さ,説明責任,透明性,倫理(FATE)を評価した。
発見は、視覚的公正性を保証するために、正確で包括的なデータ表現の重要性を強調した。
学生は倫理的配慮の重要性も強調し、FATE問題を積極的に調査し対処するためにLAとMMLAのコミュニティに圧力をかける必要性を強調している。
論文 参考訳(メタデータ) (2024-02-29T11:52:06Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - MachineLearnAthon: An Action-Oriented Machine Learning Didactic Concept [34.6229719907685]
本稿では、異なる分野の学生に包括的にデザインされた革新的教科概念であるMachineLearnAthonフォーマットを紹介する。
この概念の核心はMLの課題であり、現実の問題を解決するために産業用データセットを利用している。
これらはMLパイプライン全体をカバーするもので、データ準備からデプロイメント、評価に至るまで、データのリテラシーと実践的なスキルを促進する。
論文 参考訳(メタデータ) (2024-01-29T16:50:32Z) - Identifying Concerns When Specifying Machine Learning-Enabled Systems: A
Perspective-Based Approach [1.2184324428571227]
PerSpecMLは、ML対応システムを指定するためのパースペクティブベースのアプローチである。
MLや非MLコンポーネントを含むどの属性がシステム全体の品質に寄与するかを、実践者が特定するのに役立つ。
論文 参考訳(メタデータ) (2023-09-14T18:31:16Z) - ML-Based Teaching Systems: A Conceptual Framework [0.0]
組織的文脈における知識伝達を促進する機械学習(ML)モデルの可能性について検討する。
MLに基づく教育システムをよりよく理解し、設計するために、重要な概念、テーマ、次元について検討する。
論文 参考訳(メタデータ) (2023-05-12T09:55:34Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Understanding the Usability Challenges of Machine Learning In
High-Stakes Decision Making [67.72855777115772]
機械学習(ML)は、多種多様な成長を続ける一連のドメインに適用されている。
多くの場合、MLやデータサイエンスの専門知識を持たないドメインの専門家は、ML予測を使用してハイステークな意思決定を行うように求められます。
児童福祉スクリーニングにおけるMLユーザビリティの課題について,児童福祉スクリーニング者との一連のコラボレーションを通じて検討する。
論文 参考訳(メタデータ) (2021-03-02T22:50:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。