論文の概要: Which Coauthor Should I Nominate in My 99 ICLR Submissions? A Mathematical Analysis of the ICLR 2026 Reciprocal Reviewer Nomination Policy
- arxiv url: http://arxiv.org/abs/2512.17950v1
- Date: Wed, 17 Dec 2025 01:21:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.114499
- Title: Which Coauthor Should I Nominate in My 99 ICLR Submissions? A Mathematical Analysis of the ICLR 2026 Reciprocal Reviewer Nomination Policy
- Title(参考訳): 99 ICLRサブミッションでどの共著者を指名すべきか? ICLR 2026 相互レビュアー・ノミネーション・ポリシーの数学的解析
- Authors: Zhao Song, Song Yue, Jiahao Zhang,
- Abstract要約: ICLR 2026はレビュアーの指名ポリシーを導入し、各提出者はレビュアーとして著者の1人を指名しなければならない。
我々は,デスク-リジェクションリスク最小化問題の3つの変種を定式化し,解析する。
次に、論文数を制限するハードかつソフトなリミットの亜種を導入し、ある著者が無責任であれば、広範囲にわたる失敗を防ぎます。
- 参考スコア(独自算出の注目度): 11.011505065410354
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid growth of AI conference submissions has created an overwhelming reviewing burden. To alleviate this, recent venues such as ICLR 2026 introduced a reviewer nomination policy: each submission must nominate one of its authors as a reviewer, and any paper nominating an irresponsible reviewer is desk-rejected. We study this new policy from the perspective of author welfare. Assuming each author carries a probability of being irresponsible, we ask: how can authors (or automated systems) nominate reviewers to minimize the risk of desk rejections? We formalize and analyze three variants of the desk-rejection risk minimization problem. The basic problem, which minimizes expected desk rejections, is solved optimally by a simple greedy algorithm. We then introduce hard and soft nomination limit variants that constrain how many papers may nominate the same author, preventing widespread failures if one author is irresponsible. These formulations connect to classical optimization frameworks, including minimum-cost flow and linear programming, allowing us to design efficient, principled nomination strategies. Our results provide the first theoretical study for reviewer nomination policies, offering both conceptual insights and practical directions for authors to wisely choose which co-author should serve as the nominated reciprocal reviewer.
- Abstract(参考訳): AIカンファレンスの提出が急速に増えたことで、圧倒的なレビューの負担が生まれました。
これを軽減するため、最近のICLR 2026のような会場ではレビュアーの指名ポリシーが導入されており、各投稿者はレビュアーとして著者の1人を指名し、無責任なレビュアーを指名する書類はデスクリジェクトされる。
我々はこの新政策を著作者福祉の観点から研究する。
著者(あるいは自動化システム)がレビュアーを指名して、机の拒絶のリスクを最小限に抑えるにはどうすればよいのか?
我々は,デスク-リジェクションリスク最小化問題の3つの変種を定式化し,解析する。
期待されたデスクの拒絶を最小限に抑える基本的な問題は、単純な欲求アルゴリズムによって最適に解決される。
次に、論文数を制限するハードでソフトなリミットの亜種を導入し、ある著者が無責任であれば、広範囲にわたる失敗を防ぎます。
これらの定式化は、最小コストのフローや線形プログラミングを含む古典的な最適化フレームワークと結びつき、効率的で原則化された指名戦略を設計できる。
本研究は,レビュアーの推薦政策に関する最初の理論的研究であり,コンセプティブインサイトと実践的方向性の両方を著者に提供し,どの共著者が推薦された相互レビュアーとして機能すべきかを賢明に選択する。
関連論文リスト
- Incorporating Self-Rewriting into Large Language Model Reasoning Reinforcement [54.63337314382886]
自己書き起こしフレームワークを導入し、モデルが独自の推論テキストを書き直し、その後、書き直し推論から学習し、内部思考プロセスの品質を向上させる。
アルゴリズム設計において、モデルの一貫した正当性によって定義される「単純な」サンプルのみを書き換える選択的な書き換え手法を提案する。
モデルサイズが異なる多様なタスクの実験は、自己書き換えの有効性を検証する。
論文 参考訳(メタデータ) (2025-11-20T13:10:52Z) - BadScientist: Can a Research Agent Write Convincing but Unsound Papers that Fool LLM Reviewers? [21.78901120638025]
製造指向の紙生成エージェントがマルチモデルLCMレビューシステムを欺くことができるかどうかを考察する。
我々のジェネレータは、実際の実験を必要としないプレゼンテーション操作戦略を採用している。
健全な集約数学にもかかわらず、整合性検査は体系的に失敗する。
論文 参考訳(メタデータ) (2025-10-20T18:37:11Z) - ReviewerToo: Should AI Join The Program Committee? A Look At The Future of Peer Review [23.630458187587223]
ReviewerTooは、AI支援ピアレビューの研究とデプロイのためのフレームワークである。
専門的なレビュアー・ペルソナと構造化された評価基準による体系的な実験を支援する。
私たちは、複雑な評価判断をドメインの専門家に任せながら、AIが一貫性、カバレッジ、公平性を高める方法を示します。
論文 参考訳(メタデータ) (2025-10-09T23:53:19Z) - Automatic Reviewers Fail to Detect Faulty Reasoning in Research Papers: A New Counterfactual Evaluation Framework [55.078301794183496]
我々は、高品質なピアレビューを支えるコアレビュースキル、すなわち欠陥のある研究ロジックの検出に注力する。
これは、論文の結果、解釈、クレームの間の内部の一貫性を評価することを含む。
本稿では,このスキルを制御条件下で分離し,テストする,完全自動対物評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-29T08:48:00Z) - Accept More, Reject Less: Reducing up to 19% Unnecessary Desk-Rejections over 11 Years of ICLR Data [19.69454743728659]
多くのAIカンファレンスは、著者ごとの厳格な提出制限を強制し、単純なID命令で余分な書類を削除している。
線形プログラミング緩和と丸め方式に基づく実用的なアルゴリズムを開発した。
11年間の実世界のICLRデータに対する広範な評価の下で、本手法は著者の制限に違反することなく、19.23%以上の論文を保存できる。
論文 参考訳(メタデータ) (2025-06-25T05:23:44Z) - Dissecting Submission Limit in Desk-Rejections: A Mathematical Analysis of Fairness in AI Conference Policies [24.570596184292384]
本稿では,最適化に基づく公平性を考慮したデスク-リジェクション機構を提案する。
グループフェアネスは線形プログラミングによって効率よく最適化できるのに対し、個人フェアネスの最適化はNPハードであることを証明する。
論文 参考訳(メタデータ) (2025-02-02T06:29:23Z) - The ICML 2023 Ranking Experiment: Examining Author Self-Assessment in ML/AI Peer Review [49.43514488610211]
著者が提供するランキングは、機械学習カンファレンスでのピアレビュープロセスを改善するために利用することができる。
著者が提示したランキングを用いて生のレビュースコアを校正するイソトニックメカニズムに注目した。
本稿では,アイソトニック機構の慎重かつリスクの低いいくつかの応用と著者が提案する格付けをピアレビューで提案する。
論文 参考訳(メタデータ) (2024-08-24T01:51:23Z) - Socratic Reasoning Improves Positive Text Rewriting [49.32560132826547]
否定的思考を肯定的思考に反映することは、精神保健や心理療法に対するいくつかの認知的アプローチの欠如である。
我々は、思考の書き直しプロセスを合理化するために、textscSocraticReframeと呼ばれる新しいフレームワークを開発した。
論文 参考訳(メタデータ) (2024-03-05T15:05:06Z) - Mitigating Manipulation in Peer Review via Randomized Reviewer
Assignments [96.114824979298]
コンファレンスピアレビューにおける3つの重要な課題は、特定の論文に割り当てられる悪意のある試みであり、"Torpedo reviewing"である。
我々は、これらの課題を共通の傘の下にまとめ、レビュアーの割り当てのための(ランダム化された)アルゴリズムを示すフレームワークを提案する。
我々のアルゴリズムは、悪意のあるレビュアーが希望する論文に割り当てられる確率を50%に抑えつつ、完全な最適類似性の90%以上を割り当てることができます。
論文 参考訳(メタデータ) (2020-06-29T23:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。