論文の概要: AI Competitions and Benchmarks: How to ensure a long-lasting impact of a
challenge with post-challenge paper, benchmarks and other dissemination
action
- arxiv url: http://arxiv.org/abs/2312.06036v1
- Date: Sun, 10 Dec 2023 23:24:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 17:30:05.012307
- Title: AI Competitions and Benchmarks: How to ensure a long-lasting impact of a
challenge with post-challenge paper, benchmarks and other dissemination
action
- Title(参考訳): aiコンペティションとベンチマーク:ポストチャレンジ紙、ベンチマーク、その他の普及行動における課題の長期的影響の確保方法
- Authors: Antoine Marot, David Rousseau, Zhen Xu
- Abstract要約: この章は、チャレンジが正式に完了した後の様々な活動について記述する。
異なるアフターチャレンジ活動のターゲットオーディエンスを特定した。
チャレンジのさまざまなアウトプットは、それらを収集する手段としてリストアップされる。
- 参考スコア(独自算出の注目度): 5.459244842713057
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Organising an AI challenge does not end with the final event. The
long-lasting impact also needs to be organised. This chapter covers the various
activities after the challenge is formally finished. The target audience of
different post-challenge activities is identified. The various outputs of the
challenge are listed with the means to collect them. The main part of the
chapter is a template for a typical post-challenge paper, including possible
graphs as well as advice on how to turn the challenge into a long-lasting
benchmark.
- Abstract(参考訳): AIチャレンジの組織化は最終イベントに終止符を打たない。
長期的な影響も組織化する必要がある。
この章は、チャレンジが正式に完了した後の様々な活動を取り上げている。
異なるアフターチャレンジ活動のターゲットオーディエンスを特定した。
チャレンジのさまざまなアウトプットは、それらを収集する手段でリストされる。
章の主部は典型的なポストカレンゲ紙のテンプレートであり、グラフや、チャレンジを長期のベンチマークに変換する方法についてのアドバイスを含んでいる。
関連論文リスト
- The VoxCeleb Speaker Recognition Challenge: A Retrospective [75.40776645175585]
VoxCeleb Speaker Recognition Challenges (VoxSRC)は、2019年から2023年にかけて毎年開催される一連の課題とワークショップである。
課題は主に、様々な環境下で話者認識とダイアリゼーションのタスクを評価した。
私たちは、これらの課題について、彼らが何を探求したのか、課題参加者によって開発された方法、そしてそれらがどのように進化したのかをレビューします。
論文 参考訳(メタデータ) (2024-08-27T08:57:31Z) - Overview of AI-Debater 2023: The Challenges of Argument Generation Tasks [62.443665295250035]
第2023回中国影響コンピューティング会議(CCAC 2023)におけるAI-Debater 2023チャレンジの結果を提示する。
合計で32のチームがチャレンジに登録し、そこから11の応募をもらいました。
論文 参考訳(メタデータ) (2024-07-20T10:13:54Z) - Event-Based Eye Tracking. AIS 2024 Challenge Survey [73.41168445057629]
AIS 2024 Event-Based Eye Tracking (EET) Challengeをレビューする。
この課題の課題は、イベントカメラで記録された眼球運動の処理と瞳孔中心の予測である。
この課題は、タスクの精度と効率のトレードオフを達成するために、イベントカメラによる効率的なアイトラッキングを強調している。
論文 参考訳(メタデータ) (2024-04-17T21:53:01Z) - Challenge design roadmap [0.25631808142941404]
この章は、挑戦のための強力な計画を作成するためのガイドラインを提供する。
これはKaggle 1やChaLearn 2といった組織による準備ガイドラインを引き合いに出している。
論文 参考訳(メタデータ) (2024-01-15T10:58:30Z) - Low-Resolution Action Recognition for Tiny Actions Challenge [52.4358152877632]
Tiny Actions Challengeは、現実世界の監視における人間の活動を理解することに焦点を当てている。
このシナリオでは、アクティビティ認識には2つの大きな困難がある。
本稿では,包括的認識ソリューションを提案する。
論文 参考訳(メタデータ) (2022-09-28T00:49:13Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。