論文の概要: Mindless Attractor: A False-Positive Resistant Intervention for Drawing
Attention Using Auditory Perturbation
- arxiv url: http://arxiv.org/abs/2101.08621v1
- Date: Thu, 21 Jan 2021 14:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 14:05:13.837923
- Title: Mindless Attractor: A False-Positive Resistant Intervention for Drawing
Attention Using Auditory Perturbation
- Title(参考訳): マインドレス・トラクタ : 聴覚摂動による注意喚起のための偽陽性抵抗的介入
- Authors: Riku Arakawa and Hiromu Yakura
- Abstract要約: ビデオベースの学習では、ビデオから遠ざかっている学習者は注意を払うよう促す警告に従わない。
Mindless Computingの概念に触発され、新しい介入アプローチ、Mindless Attractorを提案します。
具体的には、ビデオの音声を混乱させ、意識を気にせずに注意を向ける。
- 参考スコア(独自算出の注目度): 21.244813783249015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explicitly alerting users is not always an optimal intervention, especially
when they are not motivated to obey. For example, in video-based learning,
learners who are distracted from the video would not follow an alert asking
them to pay attention. Inspired by the concept of Mindless Computing, we
propose a novel intervention approach, Mindless Attractor, that leverages the
nature of human speech communication to help learners refocus their attention
without relying on their motivation. Specifically, it perturbs the voice in the
video to direct their attention without consuming their conscious awareness.
Our experiments not only confirmed the validity of the proposed approach but
also emphasized its advantages in combination with a machine learning-based
sensing module. Namely, it would not frustrate users even though the
intervention is activated by false-positive detection of their attentive state.
Our intervention approach can be a reliable way to induce behavioral change in
human-AI symbiosis.
- Abstract(参考訳): ユーザに明示的に警告することは、特に従うモチベーションがない場合に、必ずしも最適な介入ではない。
例えば、ビデオベースの学習では、ビデオに気を取られている学習者は、注意を払うよう促す警告に従わない。
マインドレスコンピューティングの概念に触発されて,学習者がモチベーションに頼らずに注意を喚起することを支援するために,人間の音声コミュニケーションの性質を活用する新たな介入手法であるマインドレス・アトラクタを提案する。
具体的には、ビデオの音声を混乱させ、意識を気にせずに注意を向ける。
提案手法の有効性を検証しただけでなく,機械学習に基づくセンシングモジュールと組み合わせてその利点を強調した。
すなわち、注意状態の誤検出によって介入が活性化されたとしても、ユーザをいらいらさせることはない。
我々の介入アプローチは、ヒト-ai共生における行動変化を誘発する信頼できる方法である。
関連論文リスト
- Modeling User Preferences via Brain-Computer Interfacing [54.3727087164445]
我々はBrain-Computer Interface技術を用いてユーザの好みを推測し、その注意力は視覚的コンテンツと感情的体験との関連性に相関する。
我々はこれらを,情報検索,生成モデルのパーソナライズされたステアリング,感情経験のクラウドソーシング人口推定など,関連するアプリケーションにリンクする。
論文 参考訳(メタデータ) (2024-05-15T20:41:46Z) - When to Ask for Help: Proactive Interventions in Autonomous
Reinforcement Learning [57.53138994155612]
強化学習の長期的な目標は、世界で自律的に対話し学習できるエージェントを設計することである。
重要な課題は、ロボットアームが物体をテーブルから押し出したときなど、外部からの援助を必要とする不可逆状態の存在である。
本研究では,非可逆状態の検出と回避を効率よく学習し,エージェントが侵入した場合に積極的に支援を求めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-19T17:57:24Z) - Self-supervised Learning for Unintentional Action Prediction [23.1028903711402]
本研究では,意図しない行動予測のための自己指導型表現学習の課題について検討する。
ビデオのグローバルなコンテキストは、下流の3つのタスクのよい表現を学ぶために必要であることを示す。
補足資料では,ビデオ中の異常を検出するために,学習した表現を使用できることを示す。
論文 参考訳(メタデータ) (2022-09-24T19:06:46Z) - Play it by Ear: Learning Skills amidst Occlusion through Audio-Visual
Imitation Learning [62.83590925557013]
我々は視覚と音声の入力から、部分的に観察された操作タスクのセットを学習する。
提案システムは,遠隔操作による実演とオンラインファインタニングを併用することで,これらの課題を学習する。
模擬課題の集合において、我々のシステムは音声を使うことの恩恵を受けており、オンライン介入を用いることで、オフライン模倣学習の成功率を20%向上できることがわかった。
論文 参考訳(メタデータ) (2022-05-30T04:52:58Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - Dompteur: Taming Audio Adversarial Examples [28.54699912239861]
敵対的な例では、攻撃者は任意の機械学習システムを操作できる。
本稿では、ASRシステムに対する敵対的事例の存在を受け入れるが、人間の聴取者によって認識されるよう要求する。
心理音響学の原理を適用することで、ASR入力から意味的に無関係な情報を除去し、人間の知覚によく似たモデルを訓練することができる。
論文 参考訳(メタデータ) (2021-02-10T13:53:32Z) - Intrinsic motivation in virtual assistant interaction for fostering
spontaneous interactions [3.420509295457138]
本研究は,感情工学的アプローチによる本質的なモチベーションをカバーすることを目的とする。
新しい動機づけモデルが提案され、本質的な動機づけは能力の期待と不確実性という2つの要因によって影響を受ける。
最初の実験の結果、期待度の高いエンゲージは、期待度が低いよりも本質的に動機づけられた相互作用を示すことがわかった。
論文 参考訳(メタデータ) (2020-10-13T14:23:57Z) - Does Visual Self-Supervision Improve Learning of Speech Representations
for Emotion Recognition? [63.564385139097624]
本研究は,音声表現の学習を指導するために,顔再構成による視覚的自己監督について検討する。
提案した視覚的・音声的自己監督のマルチタスクの組み合わせは,よりリッチな特徴を学習する上で有益であることを示す。
学習した音声表現を、離散的感情認識、連続的感情認識、自動音声認識のために評価する。
論文 参考訳(メタデータ) (2020-05-04T11:33:40Z) - Mutual Information-based State-Control for Intrinsically Motivated
Reinforcement Learning [102.05692309417047]
強化学習において、エージェントは、外部報酬信号を用いて一連の目標に到達することを学習する。
自然界では、知的生物は内部の駆動から学習し、外部の信号を必要としない。
目的状態と制御可能な状態の間の相互情報として本質的な目的を定式化する。
論文 参考訳(メタデータ) (2020-02-05T19:21:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。