論文の概要: ASCII: ASsisted Classification with Ignorance Interchange
- arxiv url: http://arxiv.org/abs/2010.10747v1
- Date: Wed, 21 Oct 2020 03:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 00:43:18.979233
- Title: ASCII: ASsisted Classification with Ignorance Interchange
- Title(参考訳): ASCII: Ignorance Interchange を用いた補助分類
- Authors: Jiaying Zhou, Xun Xian, Na Li, Jie Ding
- Abstract要約: エージェントが他のエージェントの助けを借りてその分類性能を向上させるためのASCIIという手法を提案する。
主なアイデアは、エージェント間の衝突サンプルごとに0と1の間の無知値を反復的に交換することである。
この方法は自然にプライバシーを意識し、伝達経済と分散学習のシナリオに適している。
- 参考スコア(独自算出の注目度): 17.413989127493622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid development in data collecting devices and computation platforms
produces an emerging number of agents, each equipped with a unique data
modality over a particular population of subjects. While the predictive
performance of an agent may be enhanced by transmitting other data to it, this
is often unrealistic due to intractable transmission costs and security
concerns. While the predictive performance of an agent may be enhanced by
transmitting other data to it, this is often unrealistic due to intractable
transmission costs and security concerns. In this paper, we propose a method
named ASCII for an agent to improve its classification performance through
assistance from other agents. The main idea is to iteratively interchange an
ignorance value between 0 and 1 for each collated sample among agents, where
the value represents the urgency of further assistance needed. The method is
naturally suitable for privacy-aware, transmission-economical, and
decentralized learning scenarios. The method is also general as it allows the
agents to use arbitrary classifiers such as logistic regression, ensemble tree,
and neural network, and they may be heterogeneous among agents. We demonstrate
the proposed method with extensive experimental studies.
- Abstract(参考訳): データ収集装置と計算プラットフォームの急速な開発により、エージェントの数が増加し、それぞれが特定の対象者に対してユニークなデータモダリティを備えている。
エージェントの予測性能は、他のデータを送信することで向上するが、これはしばしば難読な送信コストとセキュリティ上の懸念のために非現実的である。
エージェントの予測性能は、他のデータを送信することで向上するが、これはしばしば難読な送信コストとセキュリティ上の懸念のために非現実的である。
本稿では,他のエージェントの助けを借りて,エージェントの分類性能を向上させるためのASCIIという手法を提案する。
主なアイデアは、必要な追加援助の緊急度を表すエージェント間で、各コラートされたサンプルの無知値を0から1に繰り返し交換することである。
この方法は、プライバシー、伝達経済、分散学習シナリオに自然に適している。
この方法は、エージェントがロジスティック回帰、アンサンブルツリー、ニューラルネットワークなどの任意の分類器を使用できるため、エージェント間で異種である可能性があるため、一般的な方法である。
提案手法を広範囲な実験により実証する。
関連論文リスト
- Select to Perfect: Imitating desired behavior from large multi-agent data [28.145889065013687]
AIエージェントのDesired特徴は、望ましいスコアを割り当てることで表現できる。
まず,各エージェントの行動が集団的嗜好性スコアに及ぼす影響を評価する。
本稿では,エージェントの交換値の概念を提案する。これは,個々のエージェントの集団的望ましさスコアへの貢献を定量化するものである。
論文 参考訳(メタデータ) (2024-05-06T15:48:24Z) - An Extensible Framework for Open Heterogeneous Collaborative Perception [58.70875361688463]
協調的な知覚は、単一エージェントの知覚の限界を緩和することを目的としている。
本稿では,新しい異種エージェントを協調認識に適応させる方法を提案する。
本稿では,新しい協調認識フレームワークであるHeterogeneous ALliance(HEAL)を提案する。
論文 参考訳(メタデータ) (2024-01-25T05:55:03Z) - Agent-State Construction with Auxiliary Inputs [16.79847469127811]
本稿では,強化学習に補助的な入力を使用する方法の異なる方法を示す一連の例を示す。
これらの補助的な入力は、それ以外はエイリアスされるであろう観測を区別するために使用できることを示す。
このアプローチは、リカレントニューラルネットワークや切り離されたバックプロパゲーションといった最先端の手法を補完するものだ。
論文 参考訳(メタデータ) (2022-11-15T00:18:14Z) - Mechanisms that Incentivize Data Sharing in Federated Learning [90.74337749137432]
我々は、データ共有の利点が完全に損なわれているような、ナイーブなスキームが破滅的なフリーライディングのレベルにどのように結びつくかを示す。
次に,各エージェントが生成するデータ量を最大化する精度形成機構を導入する。
論文 参考訳(メタデータ) (2022-07-10T22:36:52Z) - Decentralized scheduling through an adaptive, trading-based multi-agent
system [1.7403133838762448]
多エージェント強化学習システムでは、あるエージェントの動作が他のエージェントの報酬に悪影響を及ぼす可能性がある。
この作業は、エージェントが入ってくるジョブをコアに割り当てる責任を負うシミュレーションスケジューリング環境に、トレーディングアプローチを適用します。
エージェントは計算コアの使用権を交換して、低優先度で低報酬のジョブよりも高速に、高利益のジョブを処理できる。
論文 参考訳(メタデータ) (2022-07-05T13:50:18Z) - Byzantine-Robust Online and Offline Distributed Reinforcement Learning [60.970950468309056]
本稿では,複数のエージェントが環境を探索し,その経験を中央サーバを通じて伝達する分散強化学習環境について考察する。
エージェントの$alpha$-fractionは敵対的であり、任意の偽情報を報告することができる。
我々は、これらの対立エージェントの存在下で、マルコフ決定プロセスの根底にある準最適政策を特定することを模索する。
論文 参考訳(メタデータ) (2022-06-01T00:44:53Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Heterogeneous-Agent Trajectory Forecasting Incorporating Class
Uncertainty [54.88405167739227]
本稿では,エージェントのクラス確率を明示的に組み込んだヘテロジニアスエージェント軌道予測手法であるHAICUを提案する。
さらに,新たな挑戦的な実世界の自動運転データセットであるpupも紹介する。
軌道予測にクラス確率を組み込むことで,不確実性に直面した性能が著しく向上することを示す。
論文 参考訳(メタデータ) (2021-04-26T10:28:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。