論文の概要: Robust Decision Aggregation with Adversarial Experts
- arxiv url: http://arxiv.org/abs/2403.08222v2
- Date: Thu, 06 Feb 2025 02:49:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-07 15:30:40.202507
- Title: Robust Decision Aggregation with Adversarial Experts
- Title(参考訳): 対人的専門家によるロバストな意思決定
- Authors: Yongkang Guo, Yuqing Kong,
- Abstract要約: 我々は、真理と敵の双方の専門家が存在する場合に、堅牢な集約問題を考える。
我々は,最悪の情報構造と敵戦略の下で,後悔を最小化する予測を出力する最適なアグリゲータを見つけることを目的とする。
- 参考スコア(独自算出の注目度): 4.021926055330022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a robust aggregation problem in the presence of both truthful and adversarial experts. The truthful experts will report their private signals truthfully, while the adversarial experts can report arbitrarily. We assume experts are marginally symmetric in the sense that they share the same common prior and marginal posteriors. The rule maker needs to design an aggregator to predict the true world state from these experts' reports, without knowledge of the underlying information structures or adversarial strategies. We aim to find the optimal aggregator that outputs a forecast minimizing regret under the worst information structure and adversarial strategies. The regret is defined by the difference in expected loss between the aggregator and a benchmark who aggregates optimally given the information structure and reports of truthful experts. We focus on binary states and reports. Under L1 loss, we show that the truncated mean aggregator is optimal. When there are at most k adversaries, this aggregator discards the k lowest and highest reported values and averages the remaining ones. For L2 loss, the optimal aggregators are piecewise linear functions. All the optimalities hold when the ratio of adversaries is bounded above by a value determined by the experts' priors and posteriors. The regret only depends on the ratio of adversaries, not on their total number. For hard aggregators that output a decision, we prove that a random version of the truncated mean is optimal for both L1 and L2. This aggregator randomly follows a remaining value after discarding the $k$ lowest and highest reported values. We extend the hard aggregator to multi-state setting. We evaluate our aggregators numerically in an ensemble learning task. We also obtain negative results for general adversarial aggregation problems under broader information structures and report spaces.
- Abstract(参考訳): 我々は、真理と敵の双方の専門家が存在する場合に、堅牢な集約問題を考える。
真面目な専門家はプライベートシグナルを真実に報告し、敵対する専門家は任意に報告することができる。
専門家は、彼らが同じ共通する前と後とを共有しているという意味で、極端に対称であると仮定する。
ルールメーカは、基礎となる情報構造や敵の戦略を知らずに、これらの専門家のレポートから真の世界状態を予測するアグリゲータを設計する必要がある。
我々は,最悪の情報構造と敵戦略の下で,後悔を最小化する予測を出力する最適なアグリゲータを見つけることを目的とする。
この後悔は、情報構造と真理の専門家の報告を最適に集計するアグリゲータとベンチマークとの期待損失の差によって定義される。
バイナリ状態とレポートに重点を置いています。
L1損失下において, 停止した平均アグリゲータが最適であることを示す。
ほとんどの k 個の敵が存在する場合、このアグリゲータは k 個の最も低い値と最も高い値を捨て、残りの値を平均化する。
L2損失の場合、最適アグリゲータは断片線型関数である。
すべての最適性は、敵の比率が専門家の事前と後続によって決定される値によって上述の値に制限されているときに維持される。
後悔は敵の総数ではなく敵の比率にのみ依存する。
決定を出力するハードアグリゲータに対しては、truncated 平均のランダムバージョンが L1 と L2 の両方に対して最適であることを示す。
このアグリゲータは、$k$と最も高い報告値を捨てた後、ランダムに残値に従う。
ハードアグリゲータをマルチステート設定に拡張する。
アンサンブル学習タスクにおいて,アグリゲータを数値的に評価する。
また,より広範な情報構造および報告空間下での一般対数集約問題の負の結果を得る。
関連論文リスト
- Geometric Median Matching for Robust k-Subset Selection from Noisy Data [75.86423267723728]
最適分解点1/2のロバストな推定器であるGeometric Medianを利用する新しいk-subset選択法を提案する。
提案手法は, k-subset を反復的に選択し,部分集合の平均が(潜在的に)ノイズデータセットの GM に近似し,任意の汚損の下でもロバスト性を確保する。
論文 参考訳(メタデータ) (2025-04-01T09:22:05Z) - Mitigating the Participation Bias by Balancing Extreme Ratings [3.5785450878667597]
我々は、参加バイアスの下で、ロバストな評価集計タスクについて検討する。
私たちの目標は、集計された評価と、基礎となるすべての評価の平均との間の2乗損失を最小化することです。
論文 参考訳(メタデータ) (2025-02-06T02:58:46Z) - Heavy-tailed Contamination is Easier than Adversarial Contamination [8.607294463464523]
ハマー (Huber, 1960) にさかのぼる統計学と計算機科学のコミュニティにおける研究の成果は、統計学的および計算学的に効率的なアウトリア・ローバスト推定器に繋がった。
2つの特定の外れ値モデル、すなわち対向モデルと重尾モデルが注目されている。
論文 参考訳(メタデータ) (2024-11-22T19:00:33Z) - The Surprising Benefits of Base Rate Neglect in Robust Aggregation [14.286448842405678]
私たちの仕事は、基準レートを無視する傾向のある専門家を考慮に入れています。
ある程度のベースレートの無視は、堅牢な予測アグリゲーションに役立ちます。
論文 参考訳(メタデータ) (2024-06-19T12:20:29Z) - Generalization Error Analysis for Sparse Mixture-of-Experts: A Preliminary Study [65.11303133775857]
Mixture-of-Experts (MoE)計算アマルガメート予測
Sparse MoEは、限られた数、あるいは1つの専門家だけを選択的に扱うことで、経験的に保存され、時にはパフォーマンスが向上する一方で、オーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-03-26T05:48:02Z) - Inverse Reinforcement Learning with Sub-optimal Experts [56.553106680769474]
与えられた専門家の集合と互換性のある報酬関数のクラスの理論的性質について検討する。
以上の結果から,複数の準最適専門家の存在が,相反する報酬の集合を著しく減少させる可能性が示唆された。
我々は,最適なエージェントの1つに十分近い準最適専門家のパフォーマンスレベルが最適である場合に,最小限の最適化を行う一様サンプリングアルゴリズムを解析する。
論文 参考訳(メタデータ) (2024-01-08T12:39:25Z) - Robust Decision Aggregation with Second-order Information [4.021926055330022]
2人の専門家による意思決定集約問題について検討し、それぞれがプライベートシグナルを観察した後に2項の推薦を行う。
信号と状態の合同情報構造を知らないエージェントは、専門家の勧告を見て、アクションを実際の状態と一致させることを目指している。
本シナリオでは,2次情報の追加によるアグリゲーション向上の可能性を検討した。
論文 参考訳(メタデータ) (2023-11-23T16:39:55Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Merge, Then Compress: Demystify Efficient SMoE with Hints from Its Routing Policy [84.11508381847929]
わずかに活性化されたMixture-of-Experts(SMoE)は、ニューラルネットワークの学習能力のスケールアップを約束している。
ルーティング統計を利用したM-SMoEを提案する。
我々のMC-SMoEは最大80%のメモリと20%のFLOPを削減でき、性能は実質的に損なわれない。
論文 参考訳(メタデータ) (2023-10-02T16:51:32Z) - Unsupervised Opinion Aggregation -- A Statistical Perspective [5.665646276894791]
複雑な意思決定システムは、根底にある真実が何であるかを理解するために意見に依存する。
本報告では, 基礎的真理を必要とせず, 各専門家の立場から知識を推測する統計的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-08-20T23:14:52Z) - Active Ranking of Experts Based on their Performances in Many Tasks [72.96112117037465]
我々は、dタスクのパフォーマンスに基づいて、n名のエキスパートをランク付けする問題を考察する。
我々は,各専門家のペアに対して,各タスクにおいて他方よりも優れているという,単調な仮定を定めている。
論文 参考訳(メタデータ) (2023-06-05T06:55:39Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Investigating User Radicalization: A Novel Dataset for Identifying
Fine-Grained Temporal Shifts in Opinion [7.028604573959653]
本稿では,微妙な意見揺らぎをモデル化し,微粒な姿勢を検出するための,革新的な注釈付きデータセットを提案する。
データセットには、時間とともに、および会話スレッド全体で、十分な量のスタンスポラリティとユーザ毎の強度ラベルが含まれている。
すべての投稿は非専門家によって注釈付けされ、データの大部分は専門家によって注釈付けされている。
論文 参考訳(メタデータ) (2022-04-16T09:31:25Z) - Are You Smarter Than a Random Expert? The Robust Aggregation of
Substitutable Signals [14.03122229316614]
本稿では,幅広い情報構造から専門家の知識を逆選択する文脈において,予測集約の研究を開始する。
投射的代替条件の下では、専門家の予測の平均値を取得することは、ランダムな専門家を信頼する戦略によって大幅に改善される。
本研究では, 専門家の予測を平均化し, 一定の要因によって前者から遠ざかることで平均を極端に推し進めることにより, 集積器の性能保証は, 事前の知識がなくても実現可能であることを示す。
論文 参考訳(メタデータ) (2021-11-04T20:50:30Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - Towards an Understanding of Benign Overfitting in Neural Networks [104.2956323934544]
現代の機械学習モデルは、しばしば膨大な数のパラメータを使用し、通常、トレーニング損失がゼロになるように最適化されている。
ニューラルネットワークの2層構成において、これらの良質な過適合現象がどのように起こるかを検討する。
本稿では,2層型ReLUネットワーク補間器を極小最適学習率で実現可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T19:08:53Z) - Gaussian Experts Selection using Graphical Models [7.530615321587948]
ローカル近似は、元のデータセットをサブセットに分割し、各サブセットでローカル専門家を訓練することで、時間の複雑さを低減する。
我々は、専門家間の条件依存を符号化するスパース精度行列を用いて、非方向性のグラフィカルモデルに関する文献からのテクニックを活用し、最も重要な専門家を選択する。
論文 参考訳(メタデータ) (2021-02-02T14:12:11Z) - Malicious Experts versus the multiplicative weights algorithm in online
prediction [85.62472761361107]
2人の専門家と1人の予測者による予測問題を考える。
専門家の一人が正直で、各ラウンドで確率$mu$で正しい予測をしていると仮定する。
もう一つは悪意のあるもので、各ラウンドで真の結果を知り、予測者の損失を最大化するために予測を行う。
論文 参考訳(メタデータ) (2020-03-18T20:12:08Z) - Prediction with Corrupted Expert Advice [67.67399390910381]
ステップサイズを減らした古典的乗法重みアルゴリズムの変種が、良質な環境において絶え間なく後悔することを証明する。
我々の結果は、しばしば同等のFollow the Regularized Leader(FTRL)とOnline Mirror Descent(OMD)フレームワークの驚くべき相違を明らかにします。
論文 参考訳(メタデータ) (2020-02-24T14:39:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。