論文の概要: Aligning Human and Machine Attention for Enhanced Supervised Learning
- arxiv url: http://arxiv.org/abs/2502.06811v2
- Date: Wed, 19 Feb 2025 20:57:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:26:04.648882
- Title: Aligning Human and Machine Attention for Enhanced Supervised Learning
- Title(参考訳): 強化された教師付き学習のための人間と機械の注意の調整
- Authors: Avihay Chriqui, Inbal Yahav, Dov Teeni, Ahmed Abbasi,
- Abstract要約: 人間は特定の学習タスクにおいて機械よりも優れています。
マシン・アテンションと人間のアテンション・メカニズムを合わせることで、マシン・パフォーマンスが豊かになる可能性が考えられる。
本稿では,HuMAL(Human-Machine Attention Learning)と呼ばれる新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 2.3311636727756055
- License:
- Abstract: Attention, or prioritization of certain information items over others, is a critical element of any learning process, for both humans and machines. Given that humans continue to outperform machines in certain learning tasks, it seems plausible that machine performance could be enriched by aligning machine attention with human attention mechanisms -- yet research on this topic is sparse and has achieved only limited success. This paper proposes a new approach to address this gap, called Human-Machine Attention Learning (HuMAL). This approach involves reliance on data annotated by humans to reflect their self-perceived attention during specific tasks. We evaluate several alternative strategies for integrating such human attention data into machine learning (ML) algorithms, using a sentiment analysis task (review data from Yelp) and a personality-type classification task (data from myPersonality). The best-performing HuMAL strategy significantly enhances the task performance of fine-tuned transformer models (BERT, as well as GPT-2 and XLNET), and the benefit is particularly pronounced under challenging conditions of imbalanced or sparse labeled data. This research contributes to a deeper understanding of strategies for integrating human attention into ML models and highlights the potential of leveraging human cognition to augment ML in real-world applications.
- Abstract(参考訳): 注意(英: Attention, or Prioritization of certain information items over others)は、学習過程において、人間と機械の両方にとって重要な要素である。
人間は特定の学習タスクで機械を上回り続けているので、機械の注意と人間の注意機構を合わせることで、機械のパフォーマンスが豊かになる可能性は高い。
本稿では,HuMAL(Human-Machine Attention Learning)と呼ばれる新たなアプローチを提案する。
このアプローチでは、特定のタスク中に自己認識された注意を反映するために、人間がアノテートしたデータに依存する。
我々は、感情分析タスク(Yelpのリビューデータ)とパーソナリティ型分類タスク(myPersonalityのデータ)を用いて、このような人間の注意データを機械学習(ML)アルゴリズムに統合するためのいくつかの代替戦略を評価する。
最高性能のHumal戦略は、細調整トランスフォーマーモデル(BERT、GPT-2、XLNET)のタスク性能を大幅に向上させ、特に不均衡またはスパースラベル付きデータの困難な条件下では、その利点が顕著である。
この研究は、人間の注意をMLモデルに統合するための戦略のより深い理解に寄与し、現実世界の応用において、人間の認知を活用してMLを強化する可能性を強調している。
関連論文リスト
- Human-In-The-Loop Machine Learning for Safe and Ethical Autonomous Vehicles: Principles, Challenges, and Opportunities [33.853994070508485]
我々は、カリキュラム学習(CL)、ヒューマン・イン・ザ・ループ強化学習(HITL-RL)、アクティブ・ラーニング(AL)、倫理的原則に焦点を当てる。
CLでは、人間の専門家が単純なタスクから始めて、より難しいタスクへと徐々に進むことで、MLモデルを体系的に訓練する。
HITL-RLは報酬形成、アクションインジェクション、対話型学習といった技術を通じて人間の入力を組み込むことで、RLプロセスを大幅に強化する。
ALは、人間の監視でラベル付けする必要がある特定のインスタンスをターゲットにすることで、アノテーションプロセスを合理化する。
論文 参考訳(メタデータ) (2024-08-22T17:02:29Z) - Enhancing Generative Class Incremental Learning Performance with Model Forgetting Approach [50.36650300087987]
本研究は, ジェネレーティブ・クラス・インクリメンタル・ラーニング(GCIL, Generative Class Incremental Learning)への新たなアプローチを提案する。
我々は, 忘れる機構の統合により, 新たな知識獲得におけるモデルの性能が著しく向上することを発見した。
論文 参考訳(メタデータ) (2024-03-27T05:10:38Z) - The Frontier of Data Erasure: Machine Unlearning for Large Language Models [56.26002631481726]
大規模言語モデル(LLM)はAIの進歩の基礎となっている。
LLMは機密情報、偏見情報、著作権情報を記憶し、広めることによってリスクを生じさせる。
機械学習は、これらの懸念を軽減するための最先端のソリューションとして現れます。
論文 参考訳(メタデータ) (2024-03-23T09:26:15Z) - EyeTrans: Merging Human and Machine Attention for Neural Code
Summarization [16.694601606682046]
我々は,人間の注意を機械の注意に取り入れて,ニューラルネットワークの要約を強化する手法を開発した。
人間の注意をトランスフォーマーに組み込むことの有効性を実証するため、2つのコード要約タスクに関する包括的な実験を行った。
論文 参考訳(メタデータ) (2024-02-21T19:45:06Z) - Machine Psychology [54.287802134327485]
我々は、心理学にインスパイアされた行動実験において、研究のための実りある方向が、大きな言語モデルに係わっていると論じる。
本稿では,本手法が表に示す理論的視点,実験パラダイム,計算解析技術について述べる。
これは、パフォーマンスベンチマークを超えた、生成人工知能(AI)のための「機械心理学」の道を開くものだ。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z) - A Survey of Machine Unlearning [56.017968863854186]
最近の規制では、要求に応じて、ユーザに関する個人情報をコンピュータシステムから削除する必要がある。
MLモデルは古いデータをよく記憶します。
機械学習に関する最近の研究は、この問題を完全に解決することはできなかった。
論文 参考訳(メタデータ) (2022-09-06T08:51:53Z) - Classifying Human Activities using Machine Learning and Deep Learning
Techniques [0.0]
HAR(Human Activity Recognition)は、人間の行動を認識する機械。
HARの課題は、与えられたデータに基づいて人間の活動を分離することの難しさを克服することである。
Long Short-Term Memory(LSTM)、Bi-Directional LS分類器、Recurrent Neural Network(RNN)、Gated Recurrent Unit(GRU)といったディープラーニング技術がトレーニングされている。
実験の結果、機械学習における線形サポートベクトルとディープラーニングにおけるGated Recurrent Unitが、人間の活動認識により良い精度を提供することがわかった。
論文 参考訳(メタデータ) (2022-05-19T05:20:04Z) - Parrot: Data-Driven Behavioral Priors for Reinforcement Learning [79.32403825036792]
そこで本研究では,実験で得られた複雑なインプット・アウトプット関係を事前に学習する手法を提案する。
RLエージェントが新規な動作を試す能力を阻害することなく、この学習が新しいタスクを迅速に学習するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2020-11-19T18:47:40Z) - Cost-effective Interactive Attention Learning with Neural Attention
Processes [79.8115563067513]
対話型注意学習(Interactive Attention Learning, IAL)と呼ばれる対話型学習フレームワークを提案する。
IALは、人間のアノテーションが不足しているため、過度に適合する傾向がある。
我々は,サンプル効率のよい注意機構と,コスト効率のよいインスタンスと機能の再ランクアルゴリズムを提案することで,これらの課題に対処する。
論文 参考訳(メタデータ) (2020-06-09T17:36:41Z) - Leveraging Rationales to Improve Human Task Performance [15.785125079811902]
計算システムの性能が人間のユーザを上回ることを考えれば、人間のパフォーマンスを改善するために説明可能なAI能力を活用することができるだろうか?
本稿では,ユーティリティベースの計算手法の合理性を自動生成するRationale-Generating Algorithmを紹介する。
以上の結果から,本手法は人事性能の統計的改善につながる有理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2020-02-11T04:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。