論文の概要: My part is bigger than yours -- assessment within a group of peers using the pairwise comparisons method
- arxiv url: http://arxiv.org/abs/2407.01843v1
- Date: Mon, 1 Jul 2024 22:54:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 17:13:22.503100
- Title: My part is bigger than yours -- assessment within a group of peers using the pairwise comparisons method
- Title(参考訳): 私の部分はあなたのものよりも大きい -- ペア比較法による仲間のグループ内での評価。
- Authors: Konrad Kułakowski, Jacek Szybowski,
- Abstract要約: プロジェクト(例えば、共同研究論文を書くなど)は、しばしばグループ作業である。最後に、各コントリビュータは、自分の貢献を、しばしば口頭で識別する。
このことは、論文作成におけるシェア(パーセント)が個々の著者によるものであるかという問題に繋がる。
本稿は, 専門家の意見の収集と, 他の専門家による評価とを直接リンクする簡易モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A project (e.g. writing a collaborative research paper) is often a group effort. At the end, each contributor identifies his or her contribution, often verbally. The reward, however, is quite often financial in nature. This leads to the question of what (percentage) share in the creation of the paper is due to individual authors. Different authors may have various opinions on the matter, and, even worse, their opinions may have different relevance. In this paper, we present a simple models that allows aggregation of experts' opinions linking the priority of his preference directly to the assessment made by other experts. In this approach, the greater the contribution of a given expert, the greater the importance of his opinion. The presented method can be considered as an attempt to find consensus among a group of peers involved in the same project. Hence, its applications may go beyond the proposed study example of writing a scientific paper.
- Abstract(参考訳): プロジェクト(例えば、共同研究論文を書くなど)は、しばしばグループ作業です。
最終的に、各コントリビュータは、しばしば口頭で、自分のコントリビューションを識別する。
しかし、報酬は本質的には経済的であることが多い。
このことは、論文作成におけるシェア(パーセント)が個々の著者によるものであるかという問題に繋がる。
異なる著者は、この問題について様々な意見を持ち、さらに悪いことに、彼らの意見は異なる関連性を持っているかもしれない。
本稿では,他の専門家が行った評価と直接的に好みの優先順位を結びつける,専門家の意見をまとめるシンプルなモデルを提案する。
このアプローチでは、与えられた専門家の貢献が大きいほど、彼の意見の重要性が増す。
提案手法は,同プロジェクトに関わる仲間のグループ間でコンセンサスを求める試みとして考えられる。
したがって、その応用は、科学論文を書くという提案された研究の例を超えるかもしれない。
関連論文リスト
- Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Time to Stop and Think: What kind of research do we want to do? [1.74048653626208]
本稿では,メタヒューリスティック最適化の分野に焦点をあてる。
私たちの主な目標は、仕事の誠実な批判的な評価の種を縫い合わせることで、個人とコミュニティの両方でリフレクションプロセスを引き起こします。
この文書に含まれるすべての声明は、他人が共有できるかどうかに関わらず、個人的な見解と意見である。
論文 参考訳(メタデータ) (2024-02-13T08:53:57Z) - Fusion of the Power from Citations: Enhance your Influence by Integrating Information from References [3.607567777043649]
本研究は,ある論文が学者の影響力を高めることができるか否かを判断するために,予測問題を定式化することを目的とする。
この研究にこの枠組みを適用することで、研究者は自分の論文が将来の影響力を高めることができるかどうかを特定できる。
論文 参考訳(メタデータ) (2023-10-27T19:51:44Z) - Scientific Opinion Summarization: Paper Meta-review Generation Dataset, Methods, and Evaluation [55.00687185394986]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
ORSUMデータセットは、47のカンファレンスから15,062のメタレビューと57,536の論文レビューをカバーしている。
実験の結果,(1)人間による要約は,議論の深みや特定の領域に対するコンセンサスや論争の特定など,必要な基準をすべて満たしていないこと,(2)タスクの分解と反復的自己調整の組み合わせは,意見の強化に強い可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - How do Authors' Perceptions of their Papers Compare with Co-authors'
Perceptions and Peer-review Decisions? [87.00095008723181]
著者は論文の受理確率をおよそ3倍過大評価している。
女性作家は、男性作家よりも極端に高い(統計的に重要な)誤校正を示す。
受理された論文と受理された論文の回答者の少なくとも30%は、レビュープロセス後に自身の論文に対する認識が改善したと述べている。
論文 参考訳(メタデータ) (2022-11-22T15:59:30Z) - What Factors Should Paper-Reviewer Assignments Rely On? Community
Perspectives on Issues and Ideals in Conference Peer-Review [20.8704278772718]
NLPコミュニティの第1回調査の結果を報告する。
我々は,ペーパーリビューアマッチングシステムにおいて,どの要因を考慮すべきかという共通問題と視点を同定する。
論文 参考訳(メタデータ) (2022-05-02T16:07:02Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - Characterising authors on the extent of their paper acceptance: A case
study of the Journal of High Energy Physics [4.402336973466853]
論文がほぼ常に会場で受理される著者のプロフィールと査読テキストについて検討する。
高い受け入れ率を持つ著者は、高い引用数、高い$h$-index、高い協力者数などを持つ可能性が高い。
論文 参考訳(メタデータ) (2020-06-12T03:26:25Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。