論文の概要: Improving How Agents Cooperate: Attention Schemas in Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2411.00983v1
- Date: Fri, 01 Nov 2024 19:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:42:26.561440
- Title: Improving How Agents Cooperate: Attention Schemas in Artificial Neural Networks
- Title(参考訳): エージェントの協調方法を改善する - ニューラルネットワークにおける注意スキーマ
- Authors: Kathryn T. Farrell, Kirsten Ziman, Michael S. A. Graziano,
- Abstract要約: 増大する証拠は、脳が注意を監視、予測、制御するために「注意スキーマ」を使用していることを示唆している。
また、注意スキーマは、ある人物が別の人物をよりよく予測できるようにすることで、社会的知性を改善することが示唆されている。
潜在的なアドバンテージを考えると、機械学習では注目スキーマがますますテストされている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Growing evidence suggests that the brain uses an "attention schema" to monitor, predict, and help control attention. It has also been suggested that an attention schema improves social intelligence by allowing one person to better predict another. Given their potential advantages, attention schemas have been increasingly tested in machine learning. Here we test small deep learning networks to determine how the addition of an attention schema may affect performance on a range of tasks. First, we found that an agent with an attention schema is better at judging or categorizing the attention states of other agents. Second, we found that an agent with an attention schema develops a pattern of attention that is easier for other agents to judge and categorize. Third, we found that in a joint task where two agents paint a scene together and must predict each other's behavior for best performance, adding an attention schema improves that performance. Finally, we find that the performance improvements caused by an attention schema are not a non-specific result of an increase in network complexity. Not all performance, on all tasks, is improved. Instead, improvement is specific to "social" tasks involving judging, categorizing, or predicting the attention of other agents. These results suggest that an attention schema may be useful in machine learning for improving cooperativity and social behavior.
- Abstract(参考訳): 増大する証拠は、脳が注意を監視、予測、制御するために「注意スキーマ」を使用していることを示唆している。
また、注意スキーマは、ある人物が別の人物をよりよく予測できるようにすることで、社会的知性を改善することが示唆されている。
潜在的なアドバンテージを考えると、機械学習では注目スキーマがますますテストされている。
ここでは、注目スキーマの追加がタスクにおけるパフォーマンスにどのように影響するかを決定するために、小さなディープラーニングネットワークをテストする。
まず、アテンションスキーマを持つエージェントが、他のエージェントのアテンション状態の判断や分類に優れていることを発見した。
第2に、注意スキーマを持つエージェントが、他のエージェントの判断や分類が容易な注意パターンを発達させることを発見した。
第三に、2人のエージェントが一緒にシーンを描き、最高のパフォーマンスのために互いの振る舞いを予測しなければならない共同作業において、注意スキーマを追加することでパフォーマンスが向上することがわかった。
最後に、アテンションスキーマによるパフォーマンス改善は、ネットワークの複雑さの増加による非特異的な結果ではないことを発見した。
すべてのタスクにおいて、すべてのパフォーマンスが改善されるわけではない。
代わりに、改善は他のエージェントの注意を判断、分類、予測する「社会的」タスクに特化している。
これらの結果から,アテンションスキーマは,協調性と社会的行動を改善する機械学習に有用である可能性が示唆された。
関連論文リスト
- Attention Schema in Neural Agents [66.43628974353683]
認知神経科学において、注意理論(AST)は、注意をASと区別する考え方を支持している。
ASTは、エージェントが自身のASを使用して他のエージェントの注意の状態を推測できると予測する。
我々は、注意とASが相互に相互作用する様々な方法を探求する。
論文 参考訳(メタデータ) (2023-05-27T05:40:34Z) - Attention in Reasoning: Dataset, Analysis, and Modeling [31.3104693230952]
本稿では,タスクの成果につながるプロセスを理解し,改善するために注意を向けたAttention with Reasoning(AiR)フレームワークを提案する。
まず,原子推論操作のシーケンスに基づいて評価基準を定義し,注意度を定量的に測定する。
次に、人間の視線追跡と正当性データを収集し、その推論能力に基づいて、様々な機械および人間の注意機構を解析する。
論文 参考訳(メタデータ) (2022-04-20T20:32:31Z) - Alignment Attention by Matching Key and Query Distributions [48.93793773929006]
本稿では,各ヘッダ内のキーとクエリの分布を一致させる自己注意を促すアライメントアテンションアテンションアテンションアテンションアテンションを導入している。
事前学習したモデルを含む自己注意のモデルはすべて、提案したアライメントアテンションアテンションアテンションに変換することが簡単である。
様々な言語理解タスクにおいて, 精度, 不確実性推定, ドメイン間の一般化, 敵攻撃に対する堅牢性などの手法の有効性を示す。
論文 参考訳(メタデータ) (2021-10-25T00:54:57Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Understanding top-down attention using task-oriented ablation design [0.22940141855172028]
トップダウンの注目により、ニューラルネットワークは、人工的および生物学的の両方において、与えられたタスクに最も関連性の高い情報に集中することができる。
我々は,タスク指向アブレーション設計と呼ばれる一般的なフレームワークに基づく計算実験により,この問題に対処することを目指している。
2つのニューラルネットワークの性能を比較する。
論文 参考訳(メタデータ) (2021-06-08T21:01:47Z) - Joint Attention for Multi-Agent Coordination and Social Learning [108.31232213078597]
共同注意がマルチエージェント協調とソーシャルラーニングを改善するメカニズムとして有用であることを示す。
共同の注意は、複数の環境にまたがる競争集中型批評家のベースラインよりも高いパフォーマンスをもたらす。
これらの結果から,共同注意は多エージェント学習に有用な帰納的バイアスである可能性が示唆された。
論文 参考訳(メタデータ) (2021-04-15T20:14:19Z) - AiR: Attention with Reasoning Capability [31.3104693230952]
本稿では,タスクの成果につながるプロセスを理解し,改善するために注意を向けたAttention with Reasoning(AiR)フレームワークを提案する。
まず,原子的推論処理のシーケンスに基づいて評価基準を定義し,推論過程を考慮した注意度の測定を可能にする。
次に、人間の視線追跡と正当性データを収集し、その推論能力とそれがタスクパフォーマンスに与える影響について、さまざまなマシンおよび人間の注意を解析する。
論文 参考訳(メタデータ) (2020-07-28T18:09:45Z) - Deep Reinforced Attention Learning for Quality-Aware Visual Recognition [73.15276998621582]
我々は,任意の畳み込みニューラルネットワークにおける中間注意マップの弱教師付き生成機構を構築した。
メタ批評家ネットワークを導入し、メインネットワークにおける注目マップの質を評価する。
論文 参考訳(メタデータ) (2020-07-13T02:44:38Z) - Exploring Self-attention for Image Recognition [151.12000247183636]
画像認識における自己注意の2つの形態について考察する。
ひとつは、標準的なドット積の注意を一般化する、ペアワイズな自己注意である。
もう1つはパッチワイドな自己認識であり、畳み込みよりも厳格に強力です。
論文 参考訳(メタデータ) (2020-04-28T16:01:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。