論文の概要: AI-Driven Contribution Evaluation and Conflict Resolution: A Framework & Design for Group Workload Investigation
- arxiv url: http://arxiv.org/abs/2511.07667v1
- Date: Wed, 12 Nov 2025 01:10:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.418195
- Title: AI-Driven Contribution Evaluation and Conflict Resolution: A Framework & Design for Group Workload Investigation
- Title(参考訳): AIによるコントリビューション評価と競合解決: グループワークロード調査のためのフレームワークと設計
- Authors: Jakub Slapek, Mir Seyedebrahimi, Yang Jianhua,
- Abstract要約: 本稿では、紛争調査を支援する新しいAI強化ツールのフレームワークと実装設計を提案する。
このフレームワークは、異質なアーティファクトを9つのベンチマークで3次元にまとめている。
大規模言語モデル(LLM)アーキテクチャは、これらの尺度に対して検証された文脈分析を行い、解釈可能かつ透明な助言的判断を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The equitable assessment of individual contribution in teams remains a persistent challenge, where conflict and disparity in workload can result in unfair performance evaluation, often requiring manual intervention - a costly and challenging process. We survey existing tool features and identify a gap in conflict resolution methods and AI integration. To address this, we propose a framework and implementation design for a novel AI-enhanced tool that assists in dispute investigation. The framework organises heterogeneous artefacts - submissions (code, text, media), communications (chat, email), coordination records (meeting logs, tasks), peer assessments, and contextual information - into three dimensions with nine benchmarks: Contribution, Interaction, and Role. Objective measures are normalised, aggregated per dimension, and paired with inequality measures (Gini index) to surface conflict markers. A Large Language Model (LLM) architecture performs validated and contextual analysis over these measures to generate interpretable and transparent advisory judgments. We argue for feasibility under current statutory and institutional policy, and outline practical analytics (sentimental, task fidelity, word/line count, etc.), bias safeguards, limitations, and practical challenges.
- Abstract(参考訳): チームにおける個人の貢献を公平に評価することは、労働負荷の衝突と格差が不公平なパフォーマンス評価をもたらし、しばしば手作業による介入を必要とする、コストが高くて困難なプロセスという、永続的な課題である。
既存のツール機能を調査し、競合解決方法とAI統合のギャップを特定します。
そこで我々は,紛争調査を支援する新しいAI強化ツールのフレームワークと実装設計を提案する。
このフレームワークは、投稿(コード、テキスト、メディア)、コミュニケーション(チャット、メール)、コーディネーションレコード(ログ、タスク)、ピアアセスメント、コンテキスト情報)という異種アーティファクトを、コントリビューション、インタラクション、ロールの9つのベンチマークで3次元にまとめている。
客観的測度は正規化され、次元ごとに集約され、不平等測度(ジーニ指数)と組み合わせて衝突マーカーを表わす。
大規模言語モデル(LLM)アーキテクチャは、これらの尺度に対して検証された文脈分析を行い、解釈可能かつ透明な助言的判断を生成する。
我々は、現行の法令及び制度政策の下で実現可能性を主張し、実践分析(感性、タスク忠実度、単語・行数など)、バイアス保護、制限、実践的課題を概説する。
関連論文リスト
- Learning to Summarize by Learning to Quiz: Adversarial Agentic Collaboration for Long Document Summarization [86.98098988779809]
SummQは長期文書要約のための新しい逆多重エージェントフレームワークである。
提案手法では,包括的な要約を作成し,評価するために協調作業を行う要約ジェネレータとレビュアーを用いる。
広範に使用されている3つの文書要約ベンチマーク上でSummQを評価する。
論文 参考訳(メタデータ) (2025-09-25T08:36:19Z) - Alignment and Safety in Large Language Models: Safety Mechanisms, Training Paradigms, and Emerging Challenges [47.14342587731284]
本調査では,大規模言語モデル(LLM)アライメントにおけるアライメント手法,トレーニングプロトコル,経験的発見について概観する。
我々は多種多様なパラダイムをまたいだアライメント手法の開発を分析し、コアアライメント目標間の基本的なトレードオフを特徴づける。
我々は、直接選好最適化(DPO)、構成AI、脳インスパイアされた方法、アライメント不確実性定量化(AUQ)など、最先端技術について議論する。
論文 参考訳(メタデータ) (2025-07-25T20:52:58Z) - Evaluations at Work: Measuring the Capabilities of GenAI in Use [28.124088786766965]
現在のAIベンチマークは、人間とAIのコラボレーションの混乱したマルチターンの性質を見逃している。
実世界のタスクを相互依存サブタスクに分解する評価フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-15T23:06:23Z) - Conflicts in Texts: Data, Implications and Challenges [58.03478157713084]
矛盾は、状況の複雑さ、説明と対処が必要な変更、データアノテーションの難しさ、生成された出力の誤りを反映する可能性がある。
本調査ではこれらの矛盾を,(1)事実的矛盾,主観的偏見,および複数の視点が矛盾を生じさせるWeb上の自然テキスト,(2)注釈者がモデルトレーニングに影響を及ぼす注釈付きデータ,(3)幻覚と知識の衝突が発生するモデルインタラクションの3つの重要な領域に分類する。
我々は、対立する情報をより効果的に推論し、調整できる紛争対応NLPシステムの開発における重要な課題と今後の方向性を強調した。
論文 参考訳(メタデータ) (2025-04-28T04:24:01Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - Interactive Agents to Overcome Ambiguity in Software Engineering [61.40183840499932]
AIエージェントは、あいまいで不明確なユーザー指示に基づいて、タスクを自動化するためにますますデプロイされている。
不安定な仮定をし、明確な質問をしないことは、最適以下の結果につながる可能性がある。
対話型コード生成設定において,LLMエージェントが不明瞭な命令を処理する能力について,プロプライエタリモデルとオープンウェイトモデルを評価して検討する。
論文 参考訳(メタデータ) (2025-02-18T17:12:26Z) - Supervised Semantic Similarity-based Conflict Detection Algorithm: S3CDA [0.8249694498830561]
本稿では,ソフトウェア要件の競合を自動的に検出する2相アルゴリズムであるS3CDAを紹介する。
提案手法はまず,意味的類似性を用いて競合する可能性のある要件ペアを同定する。
GPT-4o、Llama-3、Sonnet-3.5、Gemini-1.5といった一般的な大規模言語モデルと比較する。
論文 参考訳(メタデータ) (2022-06-28T01:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。