論文の概要: The Isotonic Mechanism for Exponential Family Estimation
- arxiv url: http://arxiv.org/abs/2304.11160v1
- Date: Fri, 21 Apr 2023 17:59:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 13:48:00.153870
- Title: The Isotonic Mechanism for Exponential Family Estimation
- Title(参考訳): 指数的家族推定のための等速的メカニズム
- Authors: Yuling Yan, Weijie J. Su, Jianqing Fan
- Abstract要約: 2023年、ICML(International Conference on Machine Learning)は、複数の投稿者に対して、認識された品質に基づいて応募をランク付けするよう要求した。
我々は、これらの著者特定ランキングを用いて、機械学習および人工知能会議におけるピアレビューを強化する。
この機構は、著者特定ランキングに固執しながら、原譜と密接に整合した調整されたスコアを生成する。
- 参考スコア(独自算出の注目度): 26.351782287953263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In 2023, the International Conference on Machine Learning (ICML) required
authors with multiple submissions to rank their submissions based on perceived
quality. In this paper, we aim to employ these author-specified rankings to
enhance peer review in machine learning and artificial intelligence conferences
by extending the Isotonic Mechanism (Su, 2021, 2022) to exponential family
distributions. This mechanism generates adjusted scores closely align with the
original scores while adhering to author-specified rankings. Despite its
applicability to a broad spectrum of exponential family distributions, this
mechanism's implementation does not necessitate knowledge of the specific
distribution form. We demonstrate that an author is incentivized to provide
accurate rankings when her utility takes the form of a convex additive function
of the adjusted review scores. For a certain subclass of exponential family
distributions, we prove that the author reports truthfully only if the question
involves only pairwise comparisons between her submissions, thus indicating the
optimality of ranking in truthful information elicitation. Lastly, we show that
the adjusted scores improve dramatically the accuracy of the original scores
and achieve nearly minimax optimality for estimating the true scores with
statistical consistecy when true scores have bounded total variation.
- Abstract(参考訳): 2023年、ICML(International Conference on Machine Learning)は、複数の投稿者に対して、認識された品質に基づいて応募をランク付けするよう要求した。
本稿では,これらの著者特定ランキングを用いて,等張機構(su,2021,2022)を指数関数的家族分布に拡張することにより,機械学習および人工知能会議におけるピアレビューを強化することを目的とする。
この機構は、著者特定ランキングに固執しながら、原譜と密接に整合した調整スコアを生成する。
指数関数分布の幅広いスペクトルに適用できるにもかかわらず、この機構の実装は特定の分布形式に関する知識を必要としない。
著者は,調整済みレビュースコアの凸付加関数の形式を取ると,正確なランク付けを行うようにインセンティブが付与される。
指数関数的家族分布のある種のサブクラスについて、著者が真に報告するのは、その質問が提出物間のペア比較のみを含む場合に限り、真に情報を引き出す際のランク付けの最適性を示す。
最後に、調整されたスコアが元のスコアの精度を劇的に改善し、真のスコアが総変動の有界な場合、統計的成分で真のスコアを推定する最小限の最適性を達成することを示す。
関連論文リスト
- Confidence Diagram of Nonparametric Ranking for Uncertainty Assessment in Large Language Models Evaluation [20.022623972491733]
大きな言語モデル(LLM)のランク付けは、$N$のポリシーに基づいてアライメントを改善する効果的なツールであることが証明されている。
本稿では,言語モデルのランキングの中から仮説テストのための新しい推論フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-07T02:34:30Z) - Analysis of the ICML 2023 Ranking Data: Can Authors' Opinions of Their Own Papers Assist Peer Review in Machine Learning? [52.00419656272129]
我々は2023年の国際機械学習会議(ICML)で実験を行った。
我々はそれぞれ2,592件の応募書を含む1,342件のランク付けを受けた。
著者によるランキングを用いて生のレビュースコアを校正するイソトニックメカニズムに注目した。
論文 参考訳(メタデータ) (2024-08-24T01:51:23Z) - Evaluating Human Alignment and Model Faithfulness of LLM Rationale [66.75309523854476]
大規模言語モデル(LLM)が,その世代を理論的にどのように説明するかを考察する。
提案手法は帰属に基づく説明よりも「偽り」が少ないことを示す。
論文 参考訳(メタデータ) (2024-06-28T20:06:30Z) - Being Aware of Localization Accuracy By Generating Predicted-IoU-Guided
Quality Scores [24.086202809990795]
予測IoUにより誘導される局所化品質スコアを取得するためのエレガントなLQEブランチを開発する。
CLQと呼ばれる新しい1段検出器が提案されている。
実験の結果、CLQは47.8 APと11.5fpsの精度で最先端の性能を達成した。
論文 参考訳(メタデータ) (2023-09-23T05:27:59Z) - Predicting article quality scores with machine learning: The UK Research
Excellence Framework [6.582887504429817]
正確性は、医学・物理科学ユニット・オブ・アセスメント(UoAs)と経済学で最も高い。
社会科学、数学、工学、芸術、人文科学、そしてUoAsの基準の上の予測精度は、より低いかゼロに近いものであった。
提案手法は,能動的学習戦略による精度の向上と,予測確率の高い記事の選択により,アルゴリズムによって推定される結果の予測回数を大幅に削減する。
論文 参考訳(メタデータ) (2022-12-11T05:45:12Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Re-Examining System-Level Correlations of Automatic Summarization
Evaluation Metrics [64.81682222169113]
システムレベルの相関により, 要約品質の人的判断を再現する自動要約評価指標を確実に定量化する。
システムレベルの相関の定義が、実際にシステムを評価するためにメトリクスがどのように使われているかと矛盾する2つの方法を特定する。
論文 参考訳(メタデータ) (2022-04-21T15:52:14Z) - You Are the Best Reviewer of Your Own Papers: An Owner-Assisted Scoring
Mechanism [17.006003864727408]
イソトニックメカニズムは、所有者が提供にインセンティブを与えている特定の情報を活用することで、不正確な生のスコアを改善する。
凸最適化問題を解くことにより,各項目の調整点を報告する。
私は、この所有者支援機構によって提供される調整されたスコアが、レビュアーによって提供される生のスコアよりもかなり正確であることを証明します。
論文 参考訳(メタデータ) (2021-10-27T22:11:29Z) - Test-time Collective Prediction [73.74982509510961]
マシンラーニングの複数のパーティは、将来のテストポイントを共同で予測したいと考えています。
エージェントは、すべてのエージェントの集合の集合的な専門知識の恩恵を受けることを望んでいるが、データやモデルパラメータを解放する意思はないかもしれない。
我々は、各エージェントの事前学習モデルを利用して、テスト時に集合的な予測を行う分散型メカニズムを探索する。
論文 参考訳(メタデータ) (2021-06-22T18:29:58Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。