論文の概要: AI Competitions and Benchmarks: towards impactful challenges with
post-challenge papers, benchmarks and other dissemination actions
- arxiv url: http://arxiv.org/abs/2312.06036v3
- Date: Thu, 14 Dec 2023 10:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-15 11:59:12.708520
- Title: AI Competitions and Benchmarks: towards impactful challenges with
post-challenge papers, benchmarks and other dissemination actions
- Title(参考訳): aiコンペティションとベンチマーク:ポストチャレンジ論文、ベンチマーク、その他の普及行動による影響のある課題に向けて
- Authors: Antoine Marot, David Rousseau, Zhen Xu
- Abstract要約: この章は、チャレンジが正式に完了した後の様々な活動について記述する。
異なるアフターチャレンジ活動のターゲットオーディエンスを特定した。
チャレンジのさまざまなアウトプットは、それらを収集する手段としてリストアップされる。
- 参考スコア(独自算出の注目度): 5.459244842713057
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Organising an AI challenge does not end with the final event. The
long-lasting impact also needs to be organised. This chapter covers the various
activities after the challenge is formally finished. The target audience of
different post-challenge activities is identified. The various outputs of the
challenge are listed with the means to collect them. The main part of the
chapter is a template for a typical post-challenge paper, including possible
graphs as well as advice on how to turn the challenge into a long-lasting
benchmark.
- Abstract(参考訳): AIチャレンジの組織化は最終イベントに終止符を打たない。
長期的な影響も組織化する必要がある。
この章は、チャレンジが正式に完了した後の様々な活動を取り上げている。
異なるアフターチャレンジ活動のターゲットオーディエンスを特定した。
チャレンジのさまざまなアウトプットは、それらを収集する手段でリストされる。
章の主部は典型的なポストカレンゲ紙のテンプレートであり、グラフや、チャレンジを長期のベンチマークに変換する方法についてのアドバイスを含んでいる。
関連論文リスト
- Challenge design roadmap [0.25631808142941404]
この章は、挑戦のための強力な計画を作成するためのガイドラインを提供する。
これはKaggle 1やChaLearn 2といった組織による準備ガイドラインを引き合いに出している。
論文 参考訳(メタデータ) (2024-01-15T10:58:30Z) - The Robust Semantic Segmentation UNCV2023 Challenge Results [99.97867942388486]
本稿では,ICCV 2023で実施されたMUAD不確実性定量化問題に対処するために用いられる勝利解について概説する。
この課題は、都市環境におけるセマンティックセグメンテーションを中心に、特に自然の敵対的なシナリオに焦点を当てた。
本報告では, 最先端の不確実性定量化手法からインスピレーションを得た19件の論文を提示する。
論文 参考訳(メタデータ) (2023-09-27T08:20:03Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Task-Specific Data Augmentation and Inference Processing for VIPriors
Instance Segmentation Challenge [9.43662534739698]
タスク固有のデータ拡張戦略とタスク固有の推論処理戦略を開発する。
本稿では,VIPriors Instance Challengeにおける提案手法の適用性を示す。
実験結果から,提案手法は2022 VIPriors Instance Challengeのテストセットにおいて,競合的な結果が得られることが示された。
論文 参考訳(メタデータ) (2022-11-21T09:15:30Z) - Low-Resolution Action Recognition for Tiny Actions Challenge [52.4358152877632]
Tiny Actions Challengeは、現実世界の監視における人間の活動を理解することに焦点を当てている。
このシナリオでは、アクティビティ認識には2つの大きな困難がある。
本稿では,包括的認識ソリューションを提案する。
論文 参考訳(メタデータ) (2022-09-28T00:49:13Z) - NTIRE 2022 Challenge on Perceptual Image Quality Assessment [90.04931572825859]
画像品質評価(IQA)におけるNTIRE 2022の課題について報告する。
この課題は、知覚画像処理アルゴリズムによるIQAの新たな課題に対処するためである。
当選方法は、最先端の性能を示すことができる。
論文 参考訳(メタデータ) (2022-06-23T13:36:49Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。