論文の概要: Automated Anonymisation of Visual and Audio Data in Classroom Studies
- arxiv url: http://arxiv.org/abs/2001.05080v1
- Date: Tue, 14 Jan 2020 23:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 13:01:32.920714
- Title: Automated Anonymisation of Visual and Audio Data in Classroom Studies
- Title(参考訳): 教室学習における視覚・音声データの匿名化
- Authors: \"Omer S\"umer, Peter Gerjets, Ulrich Trautwein, Enkelejda Kasneci
- Abstract要約: そのため、データ保護とプライバシの高水準の確保が、現在の実践において最重要視されている。
本研究では,特定の人物の視覚的・音声的データを自動匿名化する人工知能手法について検討する。
- 参考スコア(独自算出の注目度): 9.01219858596044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding students' and teachers' verbal and non-verbal behaviours during
instruction may help infer valuable information regarding the quality of
teaching. In education research, there have been many studies that aim to
measure students' attentional focus on learning-related tasks: Based on
audio-visual recordings and manual or automated ratings of behaviours of
teachers and students. Student data is, however, highly sensitive. Therefore,
ensuring high standards of data protection and privacy has the utmost
importance in current practices. For example, in the context of teaching
management studies, data collection is carried out with the consent of pupils,
parents, teachers and school administrations. Nevertheless, there may often be
students whose data cannot be used for research purposes. Excluding these
students from the classroom is an unnatural intrusion into the organisation of
the classroom. A possible solution would be to request permission to record the
audio-visual recordings of all students (including those who do not voluntarily
participate in the study) and to anonymise their data. Yet, the manual
anonymisation of audio-visual data is very demanding. In this study, we examine
the use of artificial intelligence methods to automatically anonymise the
visual and audio data of a particular person.
- Abstract(参考訳): 授業中に生徒と教師の言葉と非言語行動を理解することは、教育の質に関する貴重な情報を推測するのに役立つかもしれない。
教育研究では,教師や生徒の行動の音響・視覚的記録と手動・自動評価に基づいて,学習関連課題に対する学生の注意力を測定する研究が数多く行われている。
しかし、学生データは非常に敏感である。
したがって、データ保護とプライバシの高い標準を保証することが、現在のプラクティスにおいて最も重要である。
例えば、教育管理研究の文脈では、生徒、親、教師、学校行政の同意を得てデータ収集が行われる。
それにもかかわらず、データが研究目的に利用できない学生がしばしばいる。
これらの学生を教室から除外することは、教室の組織に不自然な侵入である。
可能な解決策は、すべての学生(自発的に研究に参加しない学生を含む)の視聴覚記録を記録し、データを匿名化するための許可を要求することである。
しかし、音声・視覚データの手動匿名化は非常に要求されている。
本研究では,特定の人物の視覚的・音声的データを自動匿名化する人工知能手法について検討する。
関連論文リスト
- MathDial: A Dialogue Tutoring Dataset with Rich Pedagogical Properties
Grounded in Math Reasoning Problems [74.73881579517055]
そこで本稿では,一般学生の誤りを表現した大規模言語モデルを用いて,人間教師の対話を生成する枠組みを提案する。
このフレームワークを用いて3kの1対1の教師-学生対話のデータセットであるMathDialを収集する方法について述べる。
論文 参考訳(メタデータ) (2023-05-23T21:44:56Z) - Considerations for Ethical Speech Recognition Datasets [0.799536002595393]
自動音声認識をケーススタディとして使用し、倫理的音声データセットが責任あるAIアプリケーションに対して持つべき特性について検討する。
トレーニングされたモデルを改善するために必要な多様性の問題、包括的プラクティス、必要な考慮事項を紹介します。
我々は、データ対象の法的・プライバシー保護、ユーザ人口統計とニーズに応じたターゲットデータサンプリング、モデル故障時の説明可能性と説明責任を保証する適切なメタデータについて論じる。
論文 参考訳(メタデータ) (2023-05-03T12:38:14Z) - Responsible Active Learning via Human-in-the-loop Peer Study [88.01358655203441]
我々は,データプライバシを同時に保持し,モデルの安定性を向上させるために,Pear Study Learning (PSL) と呼ばれる責任あるアクティブラーニング手法を提案する。
まず,クラウドサイドのタスク学習者(教師)から未学習データを分離する。
トレーニング中、タスク学習者は軽量なアクティブ学習者に指示し、アクティブサンプリング基準に対するフィードバックを提供する。
論文 参考訳(メタデータ) (2022-11-24T13:18:27Z) - Real-time Attention Span Tracking in Online Education [0.0]
本稿では,オンライン授業中の学生のリアルタイムの注意レベルを監視するために,カメラフィードとマイクロホン入力を利用するメカニズムを提案する。
我々は,5つの異なる非言語的特徴を用いて,コンピュータによるタスク中の学生の注意スコアを計算し,学生と組織の両方に対してリアルタイムのフィードバックを生成するシステムを提案する。
論文 参考訳(メタデータ) (2021-11-29T17:05:59Z) - APES: Audiovisual Person Search in Untrimmed Video [87.4124877066541]
音声人物探索データセット(APES)について述べる。
APESには36時間のビデオにラベル付けされた1,9K以上のIDが含まれている。
APESの重要な特徴は、顔と同一アイデンティティの音声セグメントをリンクする密集した時間アノテーションを含むことである。
論文 参考訳(メタデータ) (2021-06-03T08:16:42Z) - The Wits Intelligent Teaching System: Detecting Student Engagement
During Lectures Using Convolutional Neural Networks [0.30458514384586394]
Wits Intelligent Teaching System (WITS) は、学生の感情に関するリアルタイムフィードバックを講師に支援することを目的としている。
AlexNetベースのCNNはトレーニングが成功し、Support Vector Machineアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2021-05-28T12:59:37Z) - FaceLeaks: Inference Attacks against Transfer Learning Models via
Black-box Queries [2.7564955518050693]
教師モデルと直接対話することなく,個人情報を漏らしたり推測したりできるかどうかを検討する。
集約レベル情報から推測する新しい手法を提案する。
本研究は,情報漏洩が現実の状況で広く利用されている伝達学習フレームワークに対する真のプライバシー上の脅威であることを示す。
論文 参考訳(メタデータ) (2020-10-27T03:02:40Z) - Neural Multi-Task Learning for Teacher Question Detection in Online
Classrooms [50.19997675066203]
教師の音声記録から質問を自動的に検出するエンドツーエンドのニューラルネットワークフレームワークを構築している。
マルチタスク学習手法を取り入れることで,質問の種類によって意味的関係の理解を深めることが可能となる。
論文 参考訳(メタデータ) (2020-05-16T02:17:04Z) - Siamese Neural Networks for Class Activity Detection [49.320548570516124]
授業記録から教師や生徒の発話を自動的に識別する,Siameseニューラルフレームワークを構築した。
提案モデルは実世界の教育データセットに基づいて評価される。
論文 参考訳(メタデータ) (2020-05-15T14:03:35Z) - Differentially Private Deep Learning with Smooth Sensitivity [144.31324628007403]
プライバシーに関する懸念を、差分プライバシーのレンズを通して研究する。
このフレームワークでは、モデルのトレーニングに使用されるデータの詳細が曖昧になるようにモデルを摂動することで、一般的にプライバシー保証が得られます。
過去の研究で使われた最も重要なテクニックの1つは、教師モデルのアンサンブルであり、ノイズの多い投票手順に基づいて生徒に情報を返す。
本研究では,イミュータブルノイズArgMaxと呼ばれるスムーズな感性を有する新しい投票機構を提案する。これは,ある条件下では,学生に伝達される有用な情報に影響を与えることなく,教師から非常に大きなランダムノイズを発生させることができる。
論文 参考訳(メタデータ) (2020-03-01T15:38:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。