論文の概要: Modeling Teams Performance Using Deep Representational Learning on
Graphs
- arxiv url: http://arxiv.org/abs/2206.14741v1
- Date: Wed, 29 Jun 2022 16:12:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-30 20:07:46.586397
- Title: Modeling Teams Performance Using Deep Representational Learning on
Graphs
- Title(参考訳): グラフ上での深層表現学習によるチームパフォーマンスのモデル化
- Authors: Francesco Carli, Pietro Foini, Nicol\`o Gozzi, Nicola Perra, Rossano
Schifanella
- Abstract要約: 本稿では,チームのパフォーマンスを予測するために設計されたグラフニューラルネットワークモデルを提案する。
このモデルは、トポロジカル、集中、コンテキストという3つのアーキテクチャチャネルに基づいている。
第1のメカニズムは、チーム内のキーメンバーをピンポイントすることを可能にする。
第2のメカニズムにより、結果のパフォーマンスを決定する上での3つのドライバ効果の貢献を定量化できます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The large majority of human activities require collaborations within and
across formal or informal teams. Our understanding of how the collaborative
efforts spent by teams relate to their performance is still a matter of debate.
Teamwork results in a highly interconnected ecosystem of potentially
overlapping components where tasks are performed in interaction with team
members and across other teams. To tackle this problem, we propose a graph
neural network model designed to predict a team's performance while identifying
the drivers that determine such an outcome. In particular, the model is based
on three architectural channels: topological, centrality, and contextual which
capture different factors potentially shaping teams' success. We endow the
model with two attention mechanisms to boost model performance and allow
interpretability. A first mechanism allows pinpointing key members inside the
team. A second mechanism allows us to quantify the contributions of the three
driver effects in determining the outcome performance. We test model
performance on a wide range of domains outperforming most of the classical and
neural baselines considered. Moreover, we include synthetic datasets
specifically designed to validate how the model disentangles the intended
properties on which our model vastly outperforms baselines.
- Abstract(参考訳): 人間の活動の大部分は、正式なチームや非公式チーム内でのコラボレーションを必要とします。
チームによる協力的な取り組みがパフォーマンスにどう関係しているかについては、まだ議論の余地があります。
チームワークは、チームメンバーや他のチーム間でのインタラクションでタスクが実行される、潜在的に重複するコンポーネントの極めて相互に結びついたエコシステムをもたらす。
この問題に対処するために、そのような結果を決定するドライバを特定しながら、チームのパフォーマンスを予測するために設計されたグラフニューラルネットワークモデルを提案する。
特にこのモデルは3つのアーキテクチャチャネル – トポロジカル、中央性、コンテキスト – に基づいており、チームの成功を形作る可能性のあるさまざまな要因を捉えている。
モデルの性能向上と解釈可能性向上のための2つの注意機構をモデルに組み込んだ。
第1のメカニズムは、チーム内のキーメンバーをピンポイントできる。
第2のメカニズムにより、結果のパフォーマンスを決定する上での3つのドライバ効果の貢献を定量化できます。
我々は、考慮される古典的および神経的ベースラインのほとんどに匹敵する幅広いドメインでモデル性能をテストする。
さらに,モデルがベースラインを圧倒的に上回る意図するプロパティを,モデルがどのように分離するかを検証するために特別に設計された合成データセットも含む。
関連論文リスト
- ML-SPEAK: A Theory-Guided Machine Learning Method for Studying and Predicting Conversational Turn-taking Patterns [25.049072387358244]
自己組織化チーム内で対話型ターンテイクの計算モデルを開発する。
個人の性格特性とチームのコミュニケーションパターンのギャップを埋めることで、私たちのモデルはチームプロセスの理論を伝えることができるのです。
論文 参考訳(メタデータ) (2024-11-23T01:27:01Z) - Corpus Considerations for Annotator Modeling and Scaling [9.263562546969695]
一般的に使われているユーザトークンモデルは、より複雑なモデルよりも一貫して優れています。
以上の結果から,コーパス統計とアノテータモデリング性能の関係が明らかになった。
論文 参考訳(メタデータ) (2024-04-02T22:27:24Z) - Fine-Tuning Enhances Existing Mechanisms: A Case Study on Entity
Tracking [53.66999416757543]
本研究では,微調整が言語モデルに実装された内部メカニズムに与える影響について検討する。
微調整はモデルの機械的操作を変えるのではなく、強化する。
論文 参考訳(メタデータ) (2024-02-22T18:59:24Z) - Body Segmentation Using Multi-task Learning [1.0832844764942349]
本稿では,3つのタスクを伴い,人間のセグメンテーション/パーシングのための新しいマルチタスクモデルを提案する。
提案された--Pose--DensePoseモデル(略してSPD)の背景にある主な考え方は、異なるが関連するタスク間で知識を共有することによって、より良いセグメンテーションモデルを学ぶことである。
モデルの性能は、LIPおよびATRデータセットの厳密な実験により分析され、最近の(最先端)マルチタスクボディセグメンテーションモデルと比較される。
論文 参考訳(メタデータ) (2022-12-13T13:06:21Z) - Robust Graph Representation Learning via Predictive Coding [46.22695915912123]
予測符号化は、当初脳の情報処理をモデル化するために開発されたメッセージパッシングフレームワークである。
本研究では,予測符号化のメッセージパス規則に依存するモデルを構築する。
提案したモデルは,帰納的タスクと帰納的タスクの両方において,標準的なモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2022-12-09T03:58:22Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - UViM: A Unified Modeling Approach for Vision with Learned Guiding Codes [91.24112204588353]
我々は、幅広いコンピュータビジョンタスクをモデル化できる統一的なアプローチであるUViMを紹介する。
以前のモデルとは対照的に、UViMは全てのタスクに対して同じ機能を持つ。
多様な3つの視覚課題に対するUViMの有効性を実証する。
論文 参考訳(メタデータ) (2022-05-20T17:47:59Z) - Unified Graph Structured Models for Video Understanding [93.72081456202672]
リレーショナル・テンポラル関係を明示的にモデル化するメッセージパッシンググラフニューラルネットワークを提案する。
本手法は,シーン内の関連エンティティ間の関係をより効果的にモデル化できることを示す。
論文 参考訳(メタデータ) (2021-03-29T14:37:35Z) - Consistency-Aware Graph Network for Human Interaction Understanding [17.416289346143948]
本稿では,グラフネットワークの代表的な能力と,HIUタスクの促進を目的とした一貫性を考慮した推論を組み合わせた,一貫性を考慮したグラフネットワークを提案する。
我々のネットワークは,画像の特徴を抽出するバックボーンCNN,参加者間の3階対話関係を学習する因子グラフネットワーク,ラベリングとグループ化を強制する一貫性を考慮した推論モジュールの3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2020-11-20T07:49:21Z) - Rethinking Generalization of Neural Models: A Named Entity Recognition
Case Study [81.11161697133095]
NERタスクをテストベッドとして、異なる視点から既存モデルの一般化挙動を分析する。
詳細な分析による実験は、既存のニューラルNERモデルのボトルネックを診断する。
本論文の副産物として,最近のNER論文の包括的要約を含むプロジェクトをオープンソース化した。
論文 参考訳(メタデータ) (2020-01-12T04:33:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。