論文の概要: Deep Ordinal Regression using Optimal Transport Loss and Unimodal Output
Probabilities
- arxiv url: http://arxiv.org/abs/2011.07607v2
- Date: Thu, 18 Nov 2021 14:10:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:54:26.494049
- Title: Deep Ordinal Regression using Optimal Transport Loss and Unimodal Output
Probabilities
- Title(参考訳): 最適輸送損失とユニモーダル出力確率を用いた深部順序回帰
- Authors: Uri Shaham, Igal Zaidman, Jonathan Svirsky
- Abstract要約: 本稿では,単調な出力分布と最適輸送損失に基づく奥行き回帰の枠組みを提案する。
提案手法の異なるコンポーネントを実証的に分析し,モデルの性能への寄与を実証する。
8つの実世界のデータセットに対する実験結果から,提案手法が最近提案した深層学習手法と同等かつよく動作することを示す。
- 参考スコア(独自算出の注目度): 3.169089186688223
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is often desired that ordinal regression models yield unimodal
predictions. However, in many recent works this characteristic is either
absent, or implemented using soft targets, which do not guarantee unimodal
outputs at inference. In addition, we argue that the standard maximum
likelihood objective is not suitable for ordinal regression problems, and that
optimal transport is better suited for this task, as it naturally captures the
order of the classes. In this work, we propose a framework for deep ordinal
regression, based on unimodal output distribution and optimal transport loss.
Inspired by the well-known Proportional Odds model, we propose to modify its
design by using an architectural mechanism which guarantees that the model
output distribution will be unimodal. We empirically analyze the different
components of our proposed approach and demonstrate their contribution to the
performance of the model. Experimental results on eight real-world datasets
demonstrate that our proposed approach consistently performs on par with and
often better than several recently proposed deep learning approaches for deep
ordinal regression with unimodal output probabilities, while having guarantee
on the output unimodality. In addition, we demonstrate that proposed approach
is less overconfident than current baselines.
- Abstract(参考訳): 順序回帰モデルがユニモーダル予測をもたらすことがしばしば望まれる。
しかし、近年の多くの作品では、この特徴は欠落しているか、あるいは、推論においてユニモーダル出力を保証しないソフトターゲットを使用して実装されている。
さらに, 標準極大目標が順序回帰問題に適さないこと, クラス順序を自然に捉えているため, 最適輸送がこの課題に適していることを論じる。
本研究では, 単調な出力分布と最適輸送損失に基づく, 奥行き回帰のためのフレームワークを提案する。
本稿では,よく知られたProportional Oddsモデルにインスパイアされ,モデル出力分布が一様であることを保証するアーキテクチャ機構を用いて設計を変更することを提案する。
我々は,提案手法の異なるコンポーネントを分析し,そのモデルの性能への寄与を実証する。
実世界の8つのデータセットに対する実験結果から,提案手法は,出力一様性を保証する一方,一様性を持つ深度順序回帰に対するいくつかの深度学習手法と同等で,多くの場合は同等であることがわかった。
さらに,提案手法は現在のベースラインよりも信頼性が低いことを示す。
関連論文リスト
- Self-Evolutionary Large Language Models through Uncertainty-Enhanced Preference Optimization [9.618391485742968]
反復的選好最適化は、最近、大規模言語モデル(LLM)のデファクトトレーニングパラダイムの1つになっている。
我々は、信頼性の高いフィードバックでLLMを自己進化させる不確実性のあるtextbfPreference textbfOptimizationフレームワークを提案する。
筆者らのフレームワークは,ノイズ問題を大幅に軽減し,反復的選好最適化の性能を向上させる。
論文 参考訳(メタデータ) (2024-09-17T14:05:58Z) - Regression-aware Inference with LLMs [52.764328080398805]
提案手法は,一般的な回帰と評価指標に準最適であることを示す。
本稿では,ベイズ最適解を推定し,サンプル応答からクローズド形式の評価指標を推定する代替推論手法を提案する。
論文 参考訳(メタデータ) (2024-03-07T03:24:34Z) - Bayesian Nonparametrics Meets Data-Driven Distributionally Robust Optimization [29.24821214671497]
機械学習と統計モデルのトレーニングは、しばしばデータ駆動型リスク基準の最適化を伴う。
ベイズ的非パラメトリック(ディリクレ過程)理論と、スムーズなあいまいさ-逆選好の最近の決定論的モデルを組み合わせた、新しいロバストな基準を提案する。
実用的な実装として、よく知られたディリクレプロセスの表現に基づいて、評価基準の抽出可能な近似を提案し、研究する。
論文 参考訳(メタデータ) (2024-01-28T21:19:15Z) - Model-based Offline Policy Optimization with Adversarial Network [0.36868085124383626]
本稿では,新たなモデルベースオフラインポリシー最適化フレームワーク(MOAN)を提案する。
主なアイデアは、敵の学習を使って、より良い一般化を伴う遷移モデルを構築することである。
我々の手法は、広く研究されているオフラインRLベンチマークにおいて、最先端のベースラインよりも優れている。
論文 参考訳(メタデータ) (2023-09-05T11:49:33Z) - Unifying Distributionally Robust Optimization via Optimal Transport
Theory [13.19058156672392]
本稿では,これらの手法を最適輸送に基づく単一フレームワークに統一する新しい手法を提案する。
提案手法により,最適対向分布が同時に摂動確率と結果を得ることが可能となる。
本稿では, この統合フレームワークの実用性を高めるための, トラクタブルな改質手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T08:17:55Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Trustworthy Multimodal Regression with Mixture of Normal-inverse Gamma
Distributions [91.63716984911278]
このアルゴリズムは、異なるモードの適応的統合の原理における不確かさを効率的に推定し、信頼できる回帰結果を生成する。
実世界のデータと実世界のデータの両方に対する実験結果から,多モード回帰タスクにおける本手法の有効性と信頼性が示された。
論文 参考訳(メタデータ) (2021-11-11T14:28:12Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Model-based Policy Optimization with Unsupervised Model Adaptation [37.09948645461043]
本研究では,不正確なモデル推定による実データとシミュレーションデータのギャップを埋めて,より良いポリシ最適化を実現する方法について検討する。
本稿では,教師なしモデル適応を導入したモデルベース強化学習フレームワークAMPOを提案する。
提案手法は,一連の連続制御ベンチマークタスクにおけるサンプル効率の観点から,最先端の性能を実現する。
論文 参考訳(メタデータ) (2020-10-19T14:19:42Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Distributionally Robust Bayesian Quadrature Optimization [60.383252534861136]
確率分布が未知な分布の不確実性の下でBQOについて検討する。
標準的なBQOアプローチは、固定されたサンプル集合が与えられたときの真の期待目標のモンテカルロ推定を最大化する。
この目的のために,新しい後方サンプリングに基づくアルゴリズム,すなわち分布的に堅牢なBQO(DRBQO)を提案する。
論文 参考訳(メタデータ) (2020-01-19T12:00:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。