論文の概要: Mixture of Public and Private Distributions in Imperfect Information Games
- arxiv url: http://arxiv.org/abs/2405.14346v1
- Date: Thu, 23 May 2024 09:18:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 17:54:56.012550
- Title: Mixture of Public and Private Distributions in Imperfect Information Games
- Title(参考訳): 不完全な情報ゲームにおける個人分布と個人分布の混合
- Authors: Jérôme Arjonilla, Abdallah Saffidine, Tristan Cazenave,
- Abstract要約: パフォーマンスを向上させるためには,プレイヤーの個人情報を使用するかを選択する必要がある。
実験により,パフォーマンスの向上を実証的に示すとともに,パフォーマンスの向上を目的として,ゲーム内の位置に応じて新たな分布を使用する必要がある。
- 参考スコア(独自算出の注目度): 4.111084095218968
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In imperfect information games (e.g. Bridge, Skat, Poker), one of the fundamental considerations is to infer the missing information while at the same time avoiding the disclosure of private information. Disregarding the issue of protecting private information can lead to a highly exploitable performance. Yet, excessive attention to it leads to hesitations that are no longer consistent with our private information. In our work, we show that to improve performance, one must choose whether to use a player's private information. We extend our work by proposing a new belief distribution depending on the amount of private and public information desired. We empirically demonstrate an increase in performance and, with the aim of further improving performance, the new distribution should be used according to the position in the game. Our experiments have been done on multiple benchmarks and in multiple determinization-based algorithms (PIMC and IS-MCTS).
- Abstract(参考訳): 不完全な情報ゲーム(例えばブリッジ、スケート、ポーカー)では、欠落した情報を推測すると同時に、個人情報の開示を避けることが基本的な考慮事項である。
個人情報保護の問題を無視することは、非常に悪用可能なパフォーマンスにつながる可能性がある。
しかし、それに対する過度な注意は、私たちのプライベート情報と整合性のないためらいにつながります。
本研究では,パフォーマンスを向上させるためには,プレイヤーの個人情報を使用するかを選択する必要があることを示す。
我々は、希望する私的・公的な情報量に応じて、新たな信条分布を提案することで、作業を拡張します。
実験により,パフォーマンスの向上を実証的に示すとともに,パフォーマンスの向上を目的として,ゲーム内の位置に応じて新たな分布を使用する必要がある。
実験は、複数のベンチマークと、複数の決定型アルゴリズム(PIMCとIS-MCTS)で実施されている。
関連論文リスト
- On the Benefits of Public Representations for Private Transfer Learning under Distribution Shift [40.553022057469285]
一般のプレトレーニングは、プライベートトレーニングをスクラッチから最大67%改善できることを示す。
この現象の理論的説明として、公開データとプライベートデータが低次元表現を共有している場合、公開表現は、プライベートトレーニングのサンプルの複雑さを改善することができることを示す。
論文 参考訳(メタデータ) (2023-12-24T21:46:14Z) - Unlocking Accuracy and Fairness in Differentially Private Image
Classification [43.53494043189235]
差別化プライバシ(DP)は、プライバシ保護トレーニングのための金の標準フレームワークと考えられている。
DPを微調整した事前学習基礎モデルでは,非私的分類器と同様の精度が得られることを示す。
論文 参考訳(メタデータ) (2023-08-21T17:42:33Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Mixed Differential Privacy in Computer Vision [133.68363478737058]
AdaMixは、プライベートとパブリックの両方の画像データを使用して、ディープニューラルネットワーク分類器をトレーニングするための適応型微分プライベートアルゴリズムである。
プライベートデータを無視する数ショットあるいはゼロショットの学習ベースラインは、大規模なプライベートデータセットの微調整よりも優れています。
論文 参考訳(メタデータ) (2022-03-22T06:15:43Z) - Lessons from the AdKDD'21 Privacy-Preserving ML Challenge [57.365745458033075]
W3Cの顕著な提案では、過去のディスプレイの集計された、差別化されたプライベートなレポートを通じてのみ広告信号を共有することができる。
この提案を広く研究するために、AdKDD'21でオープンなプライバシ保護機械学習チャレンジが行われた。
重要な発見は、大量の集約されたデータの小さな集合が存在する場合の学習モデルは驚くほど効率的で安価であることである。
論文 参考訳(メタデータ) (2022-01-31T11:09:59Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - Neither Private Nor Fair: Impact of Data Imbalance on Utility and
Fairness in Differential Privacy [5.416049433853457]
本研究では,データの不均衡レベルの違いが,モデルによる決定の正確性と公平性に与える影響について検討する。
私たちは、小さな不均衡やプライバシー保証の緩やかささえも、異なる影響を引き起こすことを実証しています。
論文 参考訳(メタデータ) (2020-09-10T18:35:49Z) - Towards practical differentially private causal graph discovery [74.7791110594082]
因果グラフ発見は、純粋な観測データから因果関係グラフを発見する過程を指す。
そこで本稿では,Priv-PCによる個人用因果グラフ探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-15T18:30:41Z) - Utility-aware Privacy-preserving Data Releasing [7.462336024223669]
本稿では2段階の摂動に基づくプライバシー保護データ公開フレームワークを提案する。
まず、特定の事前定義されたプライバシとユーティリティの問題がパブリックドメインデータから学習される。
そして、学習した知識を活用して、データ所有者のデータを民営化したデータに正確に摂動させます。
論文 参考訳(メタデータ) (2020-05-09T05:32:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。