論文の概要: A Summary of the ALQAC 2021 Competition
- arxiv url: http://arxiv.org/abs/2204.10717v1
- Date: Fri, 22 Apr 2022 14:13:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:19:43.907495
- Title: A Summary of the ALQAC 2021 Competition
- Title(参考訳): ALQAC 2021コンペティションの概要
- Authors: Nguyen Ha Thanh, Bui Minh Quan, Chau Nguyen, Tung Le, Nguyen Minh
Phuong, Dang Tran Binh, Vuong Thi Hai Yen, Teeradaj Racharak, Nguyen Le Minh,
Tran Duc Vu, Phan Viet Anh, Nguyen Truong Son, Huy Tien Nguyen, Bhumindr
Butr-indr, Peerapon Vateekul, Prachya Boonkwan
- Abstract要約: 今年の競技には3つのタスクが含まれており、その中には法定テキスト情報検索(タスク1)、法定テキスト検索予測(タスク2)、法定テキスト質問回答(タスク3)が含まれる。
これらのタスクの最終目標は、特定の声明が合法であるかどうかを自動的に判断できるシステムを構築することである。
参加するチームのアプローチには制限はありません。
本稿では,各チームのアプローチ,公式な結果,競争に関する議論について要約する。
- 参考スコア(独自算出の注目度): 0.8348996461770016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We summarize the evaluation of the first Automated Legal Question Answering
Competition (ALQAC 2021). The competition this year contains three tasks, which
aims at processing the statute law document, which are Legal Text Information
Retrieval (Task 1), Legal Text Entailment Prediction (Task 2), and Legal Text
Question Answering (Task 3). The final goal of these tasks is to build a system
that can automatically determine whether a particular statement is lawful.
There is no limit to the approaches of the participating teams. This year,
there are 5 teams participating in Task 1, 6 teams participating in Task 2, and
5 teams participating in Task 3. There are in total 36 runs submitted to the
organizer. In this paper, we summarize each team's approaches, official
results, and some discussion about the competition. Only results of the teams
who successfully submit their approach description paper are reported in this
paper.
- Abstract(参考訳): 第1回自動法的質問回答コンテスト(ALQAC 2021)の評価を要約する。
今年のコンペティションには3つのタスクが含まれており、その中には法定テキスト情報検索(タスク1)、法定テキスト包含予測(タスク2)、法定テキスト質問応答(タスク3)が含まれる。
これらのタスクの最終目標は、特定の声明が合法であるかどうかを自動的に判断できるシステムを構築することである。
参加するチームのアプローチには制限はありません。
今年は,タスク1,6のチームがタスク2に参加し,5チームがタスク3に参加している。
総計36回が主催者に提出されている。
本稿では,各チームのアプローチ,公式な結果,競争に関する議論について要約する。
この論文では、アプローチ記述の提出に成功したチームの結果のみを報告します。
関連論文リスト
- [Call for Papers] The 2nd BabyLM Challenge: Sample-efficient pretraining on a developmentally plausible corpus [81.34965784440176]
このCfPはBabyLM Challenge 2024-2025のルールを提供する。
課題の全体的目標は同じままです。
私たちは緩い線を紙の線で置き換える。
事前学習に関するルールを緩和します。
マルチモーダル・ヴィジュアル・アンド・ランゲージ・トラックを導入する。
論文 参考訳(メタデータ) (2024-04-09T11:04:50Z) - Challenge design roadmap [0.25631808142941404]
この章は、挑戦のための強力な計画を作成するためのガイドラインを提供する。
これはKaggle 1やChaLearn 2といった組織による準備ガイドラインを引き合いに出している。
論文 参考訳(メタデータ) (2024-01-15T10:58:30Z) - ICDAR 2023 Competition on Hierarchical Text Detection and Recognition [60.68100769639923]
このコンペティションは、テキストの検出と認識を共同で行うディープラーニングモデルとシステムの研究を促進することを目的としている。
提案するコンペティション組織の詳細について,タスク,データセット,評価,スケジュールなどを紹介する。
大会期間中(2023年1月2日から2023年4月1日まで)、20チーム以上から少なくとも50人が提案された2つのタスクで応募された。
論文 参考訳(メタデータ) (2023-05-16T18:56:12Z) - Miko Team: Deep Learning Approach for Legal Question Answering in ALQAC
2022 [2.242125769416219]
ALQAC2022(Automated Legal Question Answering Competition)において,効率的な深層学習に基づく法文書処理手法を導入する。
本手法は,XLM-RoBERTaモデルに基づいて,多数の未ラベルコーパスから事前学習を行い,そのタスクを微調整する。
実験結果から,本手法は限定ラベル付きデータを用いた法的な検索情報処理に有効であることがわかった。
論文 参考訳(メタデータ) (2022-11-04T00:50:20Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z) - Analysing Affective Behavior in the second ABAW2 Competition [70.86998050535944]
ABAW2 2021コンペティションは、IEEE FG 2020-コンペティションと共同で開催された最初の非常に成功したABAWコンペティションに続く第2回である。
論文 参考訳(メタデータ) (2021-06-14T11:30:19Z) - IITP at AILA 2019: System Report for Artificial Intelligence for Legal
Assistance Shared Task [22.01644160437953]
我々は、AILA(Artificial Intelligence for Legal Assistance)という共有タスクへの参加の一環として、我々のシステムについて記述する。
このトラックの結果は、インド司法制度の作業プロセスの自動化に役立つだろう。
この種のトラックはまた、司法領域における自然言語処理(NLP)の研究の道を開く。
論文 参考訳(メタデータ) (2021-05-24T15:31:24Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z) - A quest for a fair schedule: The Young Physicists' Tournament [0.0]
ヤング・フィジスト・トーナメント(Young Physicists Tournament)は、37か国から5大陸の高校生の間で開催される、チーム指向の科学コンペティションである。
主催者の任務は、各チームが選択した問題のそれぞれを正確に1回だけ提示し、1回の戦闘で何の問題も提示しないように、戦闘の構成を選択することである。
両部グラフに適切なエッジカラー化を構築することにより,その一部は確実に実現可能であることを示す。
論文 参考訳(メタデータ) (2020-06-03T11:45:06Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。