論文の概要: Mindless Attractor: A False-Positive Resistant Intervention for Drawing
Attention Using Auditory Perturbation
- arxiv url: http://arxiv.org/abs/2101.08621v1
- Date: Thu, 21 Jan 2021 14:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-21 14:05:13.837923
- Title: Mindless Attractor: A False-Positive Resistant Intervention for Drawing
Attention Using Auditory Perturbation
- Title(参考訳): マインドレス・トラクタ : 聴覚摂動による注意喚起のための偽陽性抵抗的介入
- Authors: Riku Arakawa and Hiromu Yakura
- Abstract要約: ビデオベースの学習では、ビデオから遠ざかっている学習者は注意を払うよう促す警告に従わない。
Mindless Computingの概念に触発され、新しい介入アプローチ、Mindless Attractorを提案します。
具体的には、ビデオの音声を混乱させ、意識を気にせずに注意を向ける。
- 参考スコア(独自算出の注目度): 21.244813783249015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explicitly alerting users is not always an optimal intervention, especially
when they are not motivated to obey. For example, in video-based learning,
learners who are distracted from the video would not follow an alert asking
them to pay attention. Inspired by the concept of Mindless Computing, we
propose a novel intervention approach, Mindless Attractor, that leverages the
nature of human speech communication to help learners refocus their attention
without relying on their motivation. Specifically, it perturbs the voice in the
video to direct their attention without consuming their conscious awareness.
Our experiments not only confirmed the validity of the proposed approach but
also emphasized its advantages in combination with a machine learning-based
sensing module. Namely, it would not frustrate users even though the
intervention is activated by false-positive detection of their attentive state.
Our intervention approach can be a reliable way to induce behavioral change in
human-AI symbiosis.
- Abstract(参考訳): ユーザに明示的に警告することは、特に従うモチベーションがない場合に、必ずしも最適な介入ではない。
例えば、ビデオベースの学習では、ビデオに気を取られている学習者は、注意を払うよう促す警告に従わない。
マインドレスコンピューティングの概念に触発されて,学習者がモチベーションに頼らずに注意を喚起することを支援するために,人間の音声コミュニケーションの性質を活用する新たな介入手法であるマインドレス・アトラクタを提案する。
具体的には、ビデオの音声を混乱させ、意識を気にせずに注意を向ける。
提案手法の有効性を検証しただけでなく,機械学習に基づくセンシングモジュールと組み合わせてその利点を強調した。
すなわち、注意状態の誤検出によって介入が活性化されたとしても、ユーザをいらいらさせることはない。
我々の介入アプローチは、ヒト-ai共生における行動変化を誘発する信頼できる方法である。
- 全文 参考訳へのリンク
関連論文リスト
- Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Associative Adversarial Learning Based on Selective Attack [47.32213511965216]
我々は、敵対的学習にAssociative Adrial Learningを導入し、選択的攻撃を誘導する。
これにより、注意の逆追跡アルゴリズムが効果的に注意の対向的堅牢性を高めることができる。
本手法は,ベースラインと比較して,画像ネット上での対人訓練の認識精度を8.32%向上させる。
論文 参考訳(メタデータ) (2021-12-28T04:15:06Z) - Watch Those Words: Video Falsification Detection Using Word-Conditioned
Facial Motion [82.06128362686445]
本稿では,安価なディープフェイクと視覚的に説得力のあるディープフェイクの両方を扱うためのマルチモーダルな意味法医学的アプローチを提案する。
帰属という概念を利用して、ある話者と他の話者を区別する個人固有の生体パターンを学習する。
既存の個人固有のアプローチとは異なり、この手法は口唇の操作に焦点を当てた攻撃にも有効である。
論文 参考訳(メタデータ) (2021-12-21T01:57:04Z) - How You Move Your Head Tells What You Do: Self-supervised Video
Representation Learning with Egocentric Cameras and IMU Sensors [7.414287495752128]
セルフ教師付き学習は、ユーザの日々の活動から恩恵を受けるビデオ表現の学習に使用することができる。
本稿では,ビデオクリップとヘッドモーションの対を学習することで,映像表現をシンプルかつ効果的に学習する手法を提案する。
人や犬の自我中心的な活動を認識するための学習表現の有効性を実証する。
論文 参考訳(メタデータ) (2021-10-04T19:25:15Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - PEBBLE: Feedback-Efficient Interactive Reinforcement Learning via
Relabeling Experience and Unsupervised Pre-training [94.87393610927812]
我々は、フィードバックと非政治学習の両方の長所を生かした、非政治的、インタラクティブな強化学習アルゴリズムを提案する。
提案手法は,従来ヒト・イン・ザ・ループ法で検討されていたよりも複雑度の高いタスクを学習可能であることを実証する。
論文 参考訳(メタデータ) (2021-06-09T14:10:50Z) - Situational Confidence Assistance for Lifelong Shared Autonomy [35.15522119919745]
我々のキーとなるアイデアは、ロボットがユーザーの入力を説明するのに意図のレパートリーが不十分であるかどうかを検知し、フィードバック制御を行うことである。
これにより、ロボットは目立たないタスクの実行を観察し、その背後にある新しい意図を学習し、このレパートリーに追加することができる。
論文 参考訳(メタデータ) (2021-04-14T00:00:07Z) - Dompteur: Taming Audio Adversarial Examples [28.54699912239861]
敵対的な例では、攻撃者は任意の機械学習システムを操作できる。
本稿では、ASRシステムに対する敵対的事例の存在を受け入れるが、人間の聴取者によって認識されるよう要求する。
心理音響学の原理を適用することで、ASR入力から意味的に無関係な情報を除去し、人間の知覚によく似たモデルを訓練することができる。
論文 参考訳(メタデータ) (2021-02-10T13:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。