論文の概要: The Isotonic Mechanism for Exponential Family Estimation
- arxiv url: http://arxiv.org/abs/2304.11160v3
- Date: Mon, 2 Oct 2023 14:33:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-03 17:43:13.446775
- Title: The Isotonic Mechanism for Exponential Family Estimation
- Title(参考訳): 指数的家族推定のための等速的メカニズム
- Authors: Yuling Yan, Weijie J. Su, Jianqing Fan
- Abstract要約: 2023年、ICML(International Conference on Machine Learning)は、複数の投稿者に対して、認識された品質に基づいて応募をランク付けするよう要求した。
本稿では,これらの著者別ランキングを用いて,機械学習および人工知能会議におけるピアレビューを強化することを目的とする。
このメカニズムは、著者特定ランキングに固執しながら、元のスコアと密接に一致した調整されたスコアを生成する。
- 参考スコア(独自算出の注目度): 31.542906034919977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 2023, the International Conference on Machine Learning (ICML) required
authors with multiple submissions to rank their submissions based on perceived
quality. In this paper, we aim to employ these author-specified rankings to
enhance peer review in machine learning and artificial intelligence conferences
by extending the Isotonic Mechanism to exponential family distributions. This
mechanism generates adjusted scores that closely align with the original scores
while adhering to author-specified rankings. Despite its applicability to a
broad spectrum of exponential family distributions, implementing this mechanism
does not require knowledge of the specific distribution form. We demonstrate
that an author is incentivized to provide accurate rankings when her utility
takes the form of a convex additive function of the adjusted review scores. For
a certain subclass of exponential family distributions, we prove that the
author reports truthfully only if the question involves only pairwise
comparisons between her submissions, thus indicating the optimality of ranking
in truthful information elicitation. Moreover, we show that the adjusted scores
improve dramatically the estimation accuracy compared to the original scores
and achieve nearly minimax optimality when the ground-truth scores have bounded
total variation. We conclude the paper by presenting experiments conducted on
the ICML 2023 ranking data, which show significant estimation gain using the
Isotonic Mechanism.
- Abstract(参考訳): 2023年、ICML(International Conference on Machine Learning)は、複数の投稿者に対して、認識された品質に基づいて応募をランク付けするよう要求した。
本稿では,これら著者特定ランキングを用いて,等張的メカニズムを指数関数的家族分布に拡張することにより,機械学習および人工知能会議におけるピアレビューを強化することを目的とする。
この機構は、著者特定ランキングに固執しながら、元のスコアと密接に一致する調整されたスコアを生成する。
指数関数分布の幅広いスペクトルに適用できるにもかかわらず、このメカニズムの実装は特定の分布形式に関する知識を必要としない。
著者は,調整済みレビュースコアの凸付加関数の形式を取ると,正確なランク付けを行うようにインセンティブが付与される。
指数関数的家族分布のある種のサブクラスについて、著者が真に報告するのは、その質問が提出物間のペア比較のみを含む場合に限り、真に情報を引き出す際のランク付けの最適性を示す。
さらに, 調整したスコアは, 原点よりも推定精度が劇的に向上し, 接地トラススコアが総変動に束縛された場合, ほぼ最小の最適性が得られることを示した。
本論文はICML 2023ランキングデータを用いて,イソトニック機構を用いた有意な推定ゲインを示す実験を行った。
関連論文リスト
- Confidence Diagram of Nonparametric Ranking for Uncertainty Assessment in Large Language Models Evaluation [20.022623972491733]
大きな言語モデル(LLM)のランク付けは、$N$のポリシーに基づいてアライメントを改善する効果的なツールであることが証明されている。
本稿では,言語モデルのランキングの中から仮説テストのための新しい推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-07T02:34:30Z) - Analysis of the ICML 2023 Ranking Data: Can Authors' Opinions of Their Own Papers Assist Peer Review in Machine Learning? [52.00419656272129]
我々は2023年の国際機械学習会議(ICML)で実験を行った。
我々はそれぞれ2,592件の応募書を含む1,342件のランク付けを受けた。
著者によるランキングを用いて生のレビュースコアを校正するイソトニックメカニズムに注目した。
論文 参考訳(メタデータ) (2024-08-24T01:51:23Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Being Aware of Localization Accuracy By Generating Predicted-IoU-Guided
Quality Scores [24.086202809990795]
予測IoUにより誘導される局所化品質スコアを取得するためのエレガントなLQEブランチを開発する。
CLQと呼ばれる新しい1段検出器が提案されている。
実験の結果、CLQは47.8 APと11.5fpsの精度で最先端の性能を達成した。
論文 参考訳(メタデータ) (2023-09-23T05:27:59Z) - Predicting article quality scores with machine learning: The UK Research
Excellence Framework [6.582887504429817]
正確性は、医学・物理科学ユニット・オブ・アセスメント(UoAs)と経済学で最も高い。
社会科学、数学、工学、芸術、人文科学、そしてUoAsの基準の上の予測精度は、より低いかゼロに近いものであった。
提案手法は,能動的学習戦略による精度の向上と,予測確率の高い記事の選択により,アルゴリズムによって推定される結果の予測回数を大幅に削減する。
論文 参考訳(メタデータ) (2022-12-11T05:45:12Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Re-Examining System-Level Correlations of Automatic Summarization
Evaluation Metrics [64.81682222169113]
システムレベルの相関により, 要約品質の人的判断を再現する自動要約評価指標を確実に定量化する。
システムレベルの相関の定義が、実際にシステムを評価するためにメトリクスがどのように使われているかと矛盾する2つの方法を特定する。
論文 参考訳(メタデータ) (2022-04-21T15:52:14Z) - You Are the Best Reviewer of Your Own Papers: An Owner-Assisted Scoring
Mechanism [17.006003864727408]
イソトニックメカニズムは、所有者が提供にインセンティブを与えている特定の情報を活用することで、不正確な生のスコアを改善する。
凸最適化問題を解くことにより,各項目の調整点を報告する。
私は、この所有者支援機構によって提供される調整されたスコアが、レビュアーによって提供される生のスコアよりもかなり正確であることを証明します。
論文 参考訳(メタデータ) (2021-10-27T22:11:29Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。