論文の概要: Strategic Representation
- arxiv url: http://arxiv.org/abs/2206.08542v1
- Date: Fri, 17 Jun 2022 04:20:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-21 03:38:49.538354
- Title: Strategic Representation
- Title(参考訳): 戦略的表現
- Authors: Vineet Nair, Ganesh Ghalme, Inbal Talgam-Cohen, Nir Rosenfeld
- Abstract要約: 戦略マシンは ユーザーを操る表現を作れます
我々はこれを学習問題として定式化し、操作に頑健な意思決定のためのアルゴリズムを追求する。
我々の主な成果は、戦略的表現に拘わらずエラーを最小限に抑える学習アルゴリズムである。
- 参考スコア(独自算出の注目度): 20.43010800051863
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Humans have come to rely on machines for reducing excessive information to
manageable representations. But this reliance can be abused -- strategic
machines might craft representations that manipulate their users. How can a
user make good choices based on strategic representations? We formalize this as
a learning problem, and pursue algorithms for decision-making that are robust
to manipulation. In our main setting of interest, the system represents
attributes of an item to the user, who then decides whether or not to consume.
We model this interaction through the lens of strategic classification (Hardt
et al. 2016), reversed: the user, who learns, plays first; and the system,
which responds, plays second. The system must respond with representations that
reveal `nothing but the truth' but need not reveal the entire truth. Thus, the
user faces the problem of learning set functions under strategic subset
selection, which presents distinct algorithmic and statistical challenges. Our
main result is a learning algorithm that minimizes error despite strategic
representations, and our theoretical analysis sheds light on the trade-off
between learning effort and susceptibility to manipulation.
- Abstract(参考訳): 人間は、過剰な情報を管理可能な表現に減らすために機械に頼るようになった。
しかし、この依存度は悪用される可能性がある。戦略機械はユーザーを操る表現を作るかもしれない。
戦略的表現に基づいて、ユーザはどのように良い選択をするか?
我々はこれを学習問題として形式化し、操作に堅牢な意思決定のためのアルゴリズムを追求する。
主な関心事の設定では、システムはアイテムの属性をユーザに表現し、そのアイテムが消費するかどうかを判断します。
このインタラクションを、戦略的な分類のレンズ(hardt et al. 2016)でモデル化し、反転して、ユーザが最初に学習し、応答するシステムが第2の役割を果たすようにします。
システムは「真理以外の何でもない」を明かす表現で応答しなければならないが、真理全体を明かす必要はない。
したがって、ユーザは戦略的な部分集合選択の下で集合関数を学習する問題に直面し、異なるアルゴリズム的および統計的課題を示す。
私たちの主な結果は、戦略的表現にもかかわらずエラーを最小限に抑える学習アルゴリズムであり、理論分析は、学習努力と操作可能性の間のトレードオフを浮き彫りにしている。
関連論文リスト
- The Double-Edged Sword of Behavioral Responses in Strategic Classification: Theory and User Studies [7.695481260089599]
本稿では,アルゴリズムに対する人間の反応の行動バイアスを考慮した戦略的分類モデルを提案する。
分類器の誤認が、偏りのあるエージェントと合理的なエージェントの反応の異なるタイプの相違をもたらすことを示す。
行動バイアスのある戦略的エージェントは、完全に合理的な戦略エージェントと比較して、会社に利益をもたらすか、または(予想外の)害を与える可能性があることを示す。
論文 参考訳(メタデータ) (2024-10-23T17:42:54Z) - Capturing the Complexity of Human Strategic Decision-Making with Machine Learning [4.308322597847064]
我々は,2プレイヤーマトリックスゲームにおける初期プレイの文脈において,戦略的意思決定の現在までの最大の研究を行う。
これらのデータに基づいてトレーニングされたディープニューラルネットワークは、戦略行動の理論を先導するよりも、人々の選択を予測できることを示す。
論文 参考訳(メタデータ) (2024-08-15T00:39:42Z) - Strategic Littlestone Dimension: Improved Bounds on Online Strategic Classification [22.031509365704423]
戦略エージェントが観測可能な特徴を修正して肯定的な分類を受けられるような設定において、オンライン二項分類の問題について検討する。
我々は,仮説クラスと操作グラフの結合複雑性をキャプチャする新しい尺度である,ストラテジック・リトルストーン次元を導入する。
我々は、すべてのエージェントがグラフファミリ内の同じグラフで操作する実現可能な設定と、操作グラフが逆向きに選択され、家族内の1つのグラフで一貫したモデル化が行われない非依存的な設定の両方において、後悔すべき境界を導出する。
論文 参考訳(メタデータ) (2024-07-16T11:31:20Z) - Learnability Gaps of Strategic Classification [68.726857356532]
我々は,戦略的分類と標準学習の間にある学習可能性のギャップという,根本的な問題に対処することに注力する。
ほぼ厳密なサンプルの複雑さと後悔の限界を提供し、以前の結果よりも大幅に改善します。
この設定における我々のアルゴリズムは、独立して興味を持ち、マルチラベル学習のような他の問題にも適用できる。
論文 参考訳(メタデータ) (2024-02-29T16:09:19Z) - User Strategization and Trustworthy Algorithms [81.82279667028423]
ユーザストラテジゼーションがプラットフォームを短期間で支援できることが示されています。
そして、それがプラットフォームのデータを破壊し、最終的に反実的な決定を下す能力を損なうことを示します。
論文 参考訳(メタデータ) (2023-12-29T16:09:42Z) - A Study of Forward-Forward Algorithm for Self-Supervised Learning [65.268245109828]
本研究では,自己指導型表現学習におけるフォワードとバックプロパゲーションのパフォーマンスについて検討する。
我々の主な発見は、フォワードフォワードアルゴリズムが(自己教師付き)トレーニング中にバックプロパゲーションに相容れないように機能するのに対し、転送性能は研究されたすべての設定において著しく遅れていることである。
論文 参考訳(メタデータ) (2023-09-21T10:14:53Z) - Ideal Abstractions for Decision-Focused Learning [108.15241246054515]
本稿では,決定関連情報の損失を最小限に抑えるために,出力空間を自動的に構成する手法を提案する。
本手法は,ディープニューラルネットワークトレーニングのためのデータ取得と,閉ループ山火事管理タスクの2つの領域で実証する。
論文 参考訳(メタデータ) (2023-03-29T23:31:32Z) - Learning Losses for Strategic Classification [5.812499828391904]
私たちは、よい決定ルールを学ぶのに必要な、サンプルの複雑さに焦点をあてて、学習理論的な視点を取ります。
我々は、関数クラスと演算グラフの複雑さの観点から、操作可能な既知のグラフのサンプル複雑性を解析する。
移動学習理論の手法を用いて、グラフを操作するための類似度尺度を定義し、その操作グラフの小さな変化に対して学習結果が堅牢であることを示す。
論文 参考訳(メタデータ) (2022-03-25T02:26:16Z) - Who Leads and Who Follows in Strategic Classification? [82.44386576129295]
戦略分類における役割の順序は、決定者とエージェントが互いの行動に適応する相対周波数によって決定される。
更新頻度を自由に選択できる意思決定者は,いずれの順番でスタックルバーグ均衡に収束する学習力学を誘導できることを示す。
論文 参考訳(メタデータ) (2021-06-23T16:48:46Z) - Model-free Representation Learning and Exploration in Low-rank MDPs [64.72023662543363]
低位mdpに対して,最初のモデルフリー表現学習アルゴリズムを提案する。
主要なアルゴリズムの貢献は新しいミニマックス表現の学習の目的です。
結果は複雑な環境にスケールする一般的な関数近似を収容できます。
論文 参考訳(メタデータ) (2021-02-14T00:06:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。