論文の概要: Ideal Abstractions for Decision-Focused Learning
- arxiv url: http://arxiv.org/abs/2303.17062v1
- Date: Wed, 29 Mar 2023 23:31:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 14:53:05.338775
- Title: Ideal Abstractions for Decision-Focused Learning
- Title(参考訳): 意思決定型学習のための理想的な抽象化
- Authors: Michael Poli, Stefano Massaroli, Stefano Ermon, Bryan Wilder, Eric
Horvitz
- Abstract要約: 本稿では,決定関連情報の損失を最小限に抑えるために,出力空間を自動的に構成する手法を提案する。
本手法は,ディープニューラルネットワークトレーニングのためのデータ取得と,閉ループ山火事管理タスクの2つの領域で実証する。
- 参考スコア(独自算出の注目度): 108.15241246054515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a methodology for formulating simplifying abstractions in machine
learning systems by identifying and harnessing the utility structure of
decisions. Machine learning tasks commonly involve high-dimensional output
spaces (e.g., predictions for every pixel in an image or node in a graph), even
though a coarser output would often suffice for downstream decision-making
(e.g., regions of an image instead of pixels). Developers often hand-engineer
abstractions of the output space, but numerous abstractions are possible and it
is unclear how the choice of output space for a model impacts its usefulness in
downstream decision-making. We propose a method that configures the output
space automatically in order to minimize the loss of decision-relevant
information. Taking a geometric perspective, we formulate a step of the
algorithm as a projection of the probability simplex, termed fold, that
minimizes the total loss of decision-related information in the H-entropy
sense. Crucially, learning in the abstracted outcome space requires less data,
leading to a net improvement in decision quality. We demonstrate the method in
two domains: data acquisition for deep neural network training and a
closed-loop wildfire management task.
- Abstract(参考訳): 本稿では,意思決定の効用構造を同定し,活用することにより,機械学習システムの抽象化を単純化する手法を提案する。
機械学習のタスクは一般的に高次元の出力空間(例えば、画像中の各ピクセルまたはグラフのノードの予測)が伴うが、より粗い出力は下流の意思決定(例えば、ピクセルの代わりに画像の領域)に十分であることが多い。
開発者はしばしば出力空間を手作業で抽象化するが、多くの抽象化が可能であり、モデルの出力空間の選択が下流の意思決定においてその有用性にどのように影響するかは不明である。
本稿では,決定関連情報の損失を最小限に抑えるために,出力空間を自動的に構成する手法を提案する。
幾何学的観点から、H-エントロピー感覚における決定関連情報の総損失を最小限に抑えるため、確率単純化の射影としてアルゴリズムのステップを定式化する。
重要なことは、抽象的な結果空間での学習は、データが少ないため、決定品質が大幅に向上する。
本手法は,ディープニューラルネットワークトレーニングのためのデータ取得と閉ループ山火事管理タスクの2つの領域で実証する。
関連論文リスト
- Explainable Data-Driven Optimization: From Context to Decision and Back
Again [76.84947521482631]
データ駆動最適化では、コンテキスト情報と機械学習アルゴリズムを使用して、不確実なパラメータによる決定問題の解決策を見つける。
本稿では,データ駆動型問題に対する解法を説明するために,対実的説明手法を提案する。
在庫管理やルーティングといった運用管理における重要な問題を説明することで,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2023-01-24T15:25:16Z) - AMS-Net: Adaptive Multiscale Sparse Neural Network with Interpretable
Basis Expansion for Multiphase Flow Problems [8.991619150027267]
本研究では、物理過程の学習に応用可能な適応スパース学習アルゴリズムを提案し、大きなスナップショット空間を与えられた解のスパース表現を得る。
基本関数の情報は損失関数に組み込まれており、複数の時間ステップにおけるダウンスケール縮小次数解と参照解との差を最小限に抑える。
複雑なアプリケーションにおける提案手法の有効性と解釈性を示すため, 2相多相流問題に対してより数値的な実験を行った。
論文 参考訳(メタデータ) (2022-07-24T13:12:43Z) - DPDR: A novel machine learning method for the Decision Process for
Dimensionality Reduction [1.827510863075184]
教師付き学習コンテキストにおいて、次元性を減らすための適切な方法を見つけることは、しばしば紛らわしい。
本稿では,教師付き学習文脈における最適次元削減法を選択するための新しい手法を提案する。
主なアルゴリズムはランダムフォレストアルゴリズム(RF)、主成分分析アルゴリズム(PCA)、多層パーセプトロン(MLP)ニューラルネットワークアルゴリズムである。
論文 参考訳(メタデータ) (2022-06-17T19:14:39Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - R(Det)^2: Randomized Decision Routing for Object Detection [64.48369663018376]
本稿では,決定木とディープニューラルネットワークをエンドツーエンドの学習方法で組み合わせたオブジェクト検出手法を提案する。
効率的な学習を容易にするために,ノード選択型および連想型損失を伴うランダム化決定経路を提案する。
このアプローチをオブジェクト検出のためのランダム化決定ルーティングとして、R(Det)$2$と略す。
論文 参考訳(メタデータ) (2022-04-02T07:54:58Z) - Revisiting Point Cloud Simplification: A Learnable Feature Preserving
Approach [57.67932970472768]
MeshとPoint Cloudの単純化手法は、3Dモデルの複雑さを低減しつつ、視覚的品質と関連する健全な機能を維持することを目的としている。
そこで本研究では,正解点の標本化を学習し,高速点雲の簡易化手法を提案する。
提案手法は、入力空間から任意のユーザ定義の点数を選択し、視覚的知覚誤差を最小限に抑えるために、その位置を再配置するよう訓練されたグラフニューラルネットワークアーキテクチャに依存する。
論文 参考訳(メタデータ) (2021-09-30T10:23:55Z) - Model-Agnostic Explanations using Minimal Forcing Subsets [11.420687735660097]
そこで本研究では,モデル決定に欠かせない最小限のトレーニングサンプルを同定する,モデルに依存しない新しいアルゴリズムを提案する。
本アルゴリズムは,制約付き最適化問題を解くことにより,このような「欠かせない」サンプルの集合を反復的に同定する。
結果から,本アルゴリズムは局所モデルの振る舞いをよりよく理解する上で,効率的かつ容易に記述できるツールであることがわかった。
論文 参考訳(メタデータ) (2020-11-01T22:45:16Z) - Learning Abstract Models for Strategic Exploration and Fast Reward
Transfer [85.19766065886422]
我々は,抽象状態のマルコフ決定過程(MDP)を正確に学習し,複雑なエラーを避ける。
本手法は,最も難易度の高い3つのアーケード学習環境ゲームにおいて,強力な結果をもたらす。
学習した抽象MDPを新しい報酬関数に再利用することができ、スクラッチから訓練されたモデルフリーメソッドよりも1000倍少ないサンプルで高い報酬が得られる。
論文 参考訳(メタデータ) (2020-07-12T03:33:50Z) - Learning Discrete State Abstractions With Deep Variational Inference [7.273663549650618]
状態抽象化の一種である近似バイシミュレーションを学習する手法を提案する。
我々はディープ・ニューラルエンコーダを使って状態を連続的な埋め込みにマッピングする。
我々はこれらの埋め込みを、アクション条件付き隠れマルコフモデルを用いて離散表現にマッピングする。
論文 参考訳(メタデータ) (2020-03-09T17:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。