論文の概要: Accept More, Reject Less: Reducing up to 19% Unnecessary Desk-Rejections over 11 Years of ICLR Data
- arxiv url: http://arxiv.org/abs/2506.20141v1
- Date: Wed, 25 Jun 2025 05:23:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-26 21:00:42.612266
- Title: Accept More, Reject Less: Reducing up to 19% Unnecessary Desk-Rejections over 11 Years of ICLR Data
- Title(参考訳): ICLR データの 11 年間にわたる不要な Desk-Rejections を最大 19% まで削減する
- Authors: Xiaoyu Li, Zhao Song, Jiahao Zhang,
- Abstract要約: 多くのAIカンファレンスは、著者ごとの厳格な提出制限を強制し、単純なID命令で余分な書類を削除している。
線形プログラミング緩和と丸め方式に基づく実用的なアルゴリズムを開発した。
11年間の実世界のICLRデータに対する広範な評価の下で、本手法は著者の制限に違反することなく、19.23%以上の論文を保存できる。
- 参考スコア(独自算出の注目度): 19.69454743728659
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The explosive growth of AI research has driven paper submissions at flagship AI conferences to unprecedented levels, necessitating many venues in 2025 (e.g., CVPR, ICCV, KDD, AAAI, IJCAI, WSDM) to enforce strict per-author submission limits and to desk-reject any excess papers by simple ID order. While this policy helps reduce reviewer workload, it may unintentionally discard valuable papers and penalize authors' efforts. In this paper, we ask an essential research question on whether it is possible to follow submission limits while minimizing needless rejections. We first formalize the current desk-rejection policies as an optimization problem, and then develop a practical algorithm based on linear programming relaxation and a rounding scheme. Under extensive evaluation on 11 years of real-world ICLR (International Conference on Learning Representations) data, our method preserves up to $19.23\%$ more papers without violating any author limits. Moreover, our algorithm is highly efficient in practice, with all results on ICLR data computed within at most 53.64 seconds. Our work provides a simple and practical desk-rejection strategy that significantly reduces unnecessary rejections, demonstrating strong potential to improve current CS conference submission policies.
- Abstract(参考訳): AI研究の爆発的な成長により、2025年の多くの会場(CVPR、ICCV、KDD、AAAI、IJCAI、WSDMなど)で、厳格な著者ごとの提出制限を強制し、単純なID命令で余分な論文を削除する必要がある。
このポリシーはレビュアーの作業量を減らすのに役立つが、意図せず価値ある論文を捨て、著者の努力を罰する可能性がある。
本稿では、不要な拒絶を最小限に抑えつつ、提出制限に従うことができるかどうかについて、本質的な研究課題を問う。
まず、最適化問題として現在のデスク-リジェクションポリシーを定式化し、次に線形プログラミング緩和と丸め方式に基づく実用的なアルゴリズムを開発する。
実世界の11年間のICLR(International Conference on Learning Representations)データに対する広範な評価の下で,本手法は著者の制限に違反することなく,最大19.23.%以上の論文を保存できる。
さらに,本アルゴリズムは実効性が高く,最大53.64秒以内のICLRデータに対するすべての結果が得られた。
我々の研究は、不要な拒絶を著しく低減し、現在のCS会議の提出ポリシーを改善する強力な可能性を示す、シンプルで実用的なデスク拒絶戦略を提供する。
関連論文リスト
- Can LLMs Generate Tabular Summaries of Science Papers? Rethinking the Evaluation Protocol [83.90769864167301]
文献レビュー表は、科学論文の集合を要約し比較するために欠かせないものである。
学術論文の収集にあたり,ユーザの情報ニーズを最大限に満たす表を作成するタスクについて検討する。
我々の貢献は、現実世界で遭遇する3つの重要な課題に焦点を当てている: (i)ユーザープロンプトは、しばしば未特定である; (ii)検索された候補論文は、しばしば無関係な内容を含む; (iii)タスク評価は、浅いテキスト類似性技術を超えて進むべきである。
論文 参考訳(メタデータ) (2025-04-14T14:52:28Z) - PaperBench: Evaluating AI's Ability to Replicate AI Research [3.4567792239799133]
PaperBenchは、AIエージェントが最先端のAI研究を複製する能力を評価するベンチマークである。
エージェントは、スクラッチから20個のICML 2024 SpotlightとOralの文書を複製する必要がある。
PaperBenchには8,316の個別の段階的なタスクが含まれている。
論文 参考訳(メタデータ) (2025-04-02T15:55:24Z) - Dissecting Submission Limit in Desk-Rejections: A Mathematical Analysis of Fairness in AI Conference Policies [24.570596184292384]
本稿では,最適化に基づく公平性を考慮したデスク-リジェクション機構を提案する。
グループフェアネスは線形プログラミングによって効率よく最適化できるのに対し、個人フェアネスの最適化はNPハードであることを証明する。
論文 参考訳(メタデータ) (2025-02-02T06:29:23Z) - Recursive Causal Discovery [22.56309301911757]
因果発見は、しばしば因果効果の同定と推定に向けた第一歩である。
この論文は、我々の以前の4つの出版物の上に構築され、拡張されている。
本稿では,提案アルゴリズムの統一的なフレームワークについて述べる。
論文 参考訳(メタデータ) (2024-03-14T11:46:25Z) - Monitoring AI-Modified Content at Scale: A Case Study on the Impact of ChatGPT on AI Conference Peer Reviews [51.453135368388686]
本稿では,大規模言語モデル (LLM) によって実質的に修正あるいは生成される可能性のある大規模コーパスにおけるテキストの分数推定手法を提案する。
我々の最大可能性モデルは、専門家による参照テキストとAIによる参照テキストを利用して、コーパスレベルでの実世界のLLM使用を正確かつ効率的に検証する。
論文 参考訳(メタデータ) (2024-03-11T21:51:39Z) - Offline Stochastic Shortest Path: Learning, Evaluation and Towards
Optimality [57.91411772725183]
本稿では,状態空間と動作空間が有限である場合のオフライン最短経路問題について考察する。
オフラインポリシ評価(OPE)とオフラインポリシ学習タスクの両方を扱うための,シンプルな値ベースアルゴリズムを設計する。
これらの単純なアルゴリズムの解析は、極小値に近い最悪のケース境界を示唆する強いインスタンス依存境界をもたらす。
論文 参考訳(メタデータ) (2022-06-10T07:44:56Z) - DDPG++: Striving for Simplicity in Continuous-control Off-Policy
Reinforcement Learning [95.60782037764928]
過大評価バイアスが制御される限り、単純な決定論的政策勾配は著しく機能することを示す。
第二に、非政治的なアルゴリズムの典型であるトレーニングの不安定性を、欲張りのポリシー更新ステップに向ける。
第3に、確率推定文学におけるアイデアは、リプレイバッファからの重要サンプル遷移や、性能劣化を防ぐためのポリシー更新に利用できることを示す。
論文 参考訳(メタデータ) (2020-06-26T20:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。