論文の概要: My part is bigger than yours -- assessment within a group of peers
- arxiv url: http://arxiv.org/abs/2407.01843v2
- Date: Mon, 16 Sep 2024 14:53:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 01:36:14.518507
- Title: My part is bigger than yours -- assessment within a group of peers
- Title(参考訳): 私の部分はあなたのものより大きい -- 仲間のグループ内の評価
- Authors: Konrad Kułakowski, Jacek Szybowski,
- Abstract要約: プロジェクト(例えば、共同研究論文を書くなど)は、しばしばグループ作業である。最後に、各コントリビュータは、それぞれのコントリビューションを、しばしば口頭で識別する。
これは、論文作成におけるシェア(パーセント)が個々の著者によるものであるかという問題に繋がる。
本稿では,専門家の見解を集約するシンプルなモデルを提案し,その優先順位を他の専門家による評価と直接リンクする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A project (e.g., writing a collaborative research paper) is often a group effort. At the end, each contributor identifies their contribution, often verbally. The reward, however, is very frequently financial. It leads to the question of what (percentage) share in the creation of the paper is due to individual authors. Different authors may have various opinions on the matter; even worse, their opinions may have different relevance. In this paper, we present simple models that allow aggregation of experts' views, linking the priority of his preference directly to the assessment made by other experts. In this approach, the more significant the contribution of a given expert, the greater the importance of his opinion. The presented method can be considered an attempt to find consensus among peers involved in the same project. Hence, its applications may go beyond the proposed study example of writing a scientific paper.
- Abstract(参考訳): プロジェクト(例えば、共同研究論文を書くなど)は、しばしばグループ作業です。
最終的に、各コントリビュータは、しばしば口頭で、彼らのコントリビューションを特定します。
しかし、報酬は経済的に非常に多い。
これは、論文作成におけるシェア(パーセント)が個々の著者によるものであるかという問題に繋がる。
異なる著者が様々な意見を持っているかもしれないし、さらに悪いことに、彼らの意見は異なる関連性を持っているかもしれない。
本稿では,専門家の見解を集約するシンプルなモデルを提案し,その優先順位を他の専門家による評価と直接リンクする。
このアプローチでは、与えられた専門家の貢献がより重要になるほど、彼の意見の重要性が増す。
提案手法は,同プロジェクトに関わる仲間同士のコンセンサスを求める試みであると考えられる。
したがって、その応用は、科学論文を書くという提案された研究の例を超えるかもしれない。
関連論文リスト
- Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Time to Stop and Think: What kind of research do we want to do? [1.74048653626208]
本稿では,メタヒューリスティック最適化の分野に焦点をあてる。
私たちの主な目標は、仕事の誠実な批判的な評価の種を縫い合わせることで、個人とコミュニティの両方でリフレクションプロセスを引き起こします。
この文書に含まれるすべての声明は、他人が共有できるかどうかに関わらず、個人的な見解と意見である。
論文 参考訳(メタデータ) (2024-02-13T08:53:57Z) - Fusion of the Power from Citations: Enhance your Influence by Integrating Information from References [3.607567777043649]
本研究は,ある論文が学者の影響力を高めることができるか否かを判断するために,予測問題を定式化することを目的とする。
この研究にこの枠組みを適用することで、研究者は自分の論文が将来の影響力を高めることができるかどうかを特定できる。
論文 参考訳(メタデータ) (2023-10-27T19:51:44Z) - Scientific Opinion Summarization: Paper Meta-review Generation Dataset, Methods, and Evaluation [55.00687185394986]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
ORSUMデータセットは、47のカンファレンスから15,062のメタレビューと57,536の論文レビューをカバーしている。
実験の結果,(1)人間による要約は,議論の深みや特定の領域に対するコンセンサスや論争の特定など,必要な基準をすべて満たしていないこと,(2)タスクの分解と反復的自己調整の組み合わせは,意見の強化に強い可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - How do Authors' Perceptions of their Papers Compare with Co-authors'
Perceptions and Peer-review Decisions? [87.00095008723181]
著者は論文の受理確率をおよそ3倍過大評価している。
女性作家は、男性作家よりも極端に高い(統計的に重要な)誤校正を示す。
受理された論文と受理された論文の回答者の少なくとも30%は、レビュープロセス後に自身の論文に対する認識が改善したと述べている。
論文 参考訳(メタデータ) (2022-11-22T15:59:30Z) - What Factors Should Paper-Reviewer Assignments Rely On? Community
Perspectives on Issues and Ideals in Conference Peer-Review [20.8704278772718]
NLPコミュニティの第1回調査の結果を報告する。
我々は,ペーパーリビューアマッチングシステムにおいて,どの要因を考慮すべきかという共通問題と視点を同定する。
論文 参考訳(メタデータ) (2022-05-02T16:07:02Z) - Ranking Scientific Papers Using Preference Learning [48.78161994501516]
我々はこれをピアレビューテキストとレビュアースコアに基づく論文ランキング問題とみなした。
ピアレビューに基づいて最終決定を行うための,新しい多面的総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-02T19:41:47Z) - Characterising authors on the extent of their paper acceptance: A case
study of the Journal of High Energy Physics [4.402336973466853]
論文がほぼ常に会場で受理される著者のプロフィールと査読テキストについて検討する。
高い受け入れ率を持つ著者は、高い引用数、高い$h$-index、高い協力者数などを持つ可能性が高い。
論文 参考訳(メタデータ) (2020-06-12T03:26:25Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。