論文の概要: Time to Stop and Think: What kind of research do we want to do?
- arxiv url: http://arxiv.org/abs/2402.08298v1
- Date: Tue, 13 Feb 2024 08:53:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 16:06:58.037204
- Title: Time to Stop and Think: What kind of research do we want to do?
- Title(参考訳): Time to Stop and Think: どのような研究をしたいのか?
- Authors: Josu Ceberio, Borja Calvo
- Abstract要約: 本稿では,メタヒューリスティック最適化の分野に焦点をあてる。
私たちの主な目標は、仕事の誠実な批判的な評価の種を縫い合わせることで、個人とコミュニティの両方でリフレクションプロセスを引き起こします。
この文書に含まれるすべての声明は、他人が共有できるかどうかに関わらず、個人的な見解と意見である。
- 参考スコア(独自算出の注目度): 1.74048653626208
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Experimentation is an intrinsic part of research in artificial intelligence
since it allows for collecting quantitative observations, validating
hypotheses, and providing evidence for their reformulation. For that reason,
experimentation must be coherent with the purposes of the research, properly
addressing the relevant questions in each case. Unfortunately, the literature
is full of works whose experimentation is neither rigorous nor convincing,
oftentimes designed to support prior beliefs rather than answering the relevant
research questions.
In this paper, we focus on the field of metaheuristic optimization, since it
is our main field of work, and it is where we have observed the misconduct that
has motivated this letter. Even if we limit the focus of this manuscript to the
experimental part of the research, our main goal is to sew the seed of sincere
critical assessment of our work, sparking a reflection process both at the
individual and the community level. Such a reflection process is too complex
and extensive to be tackled as a whole. Therefore, to bring our feet to the
ground, we will include in this document our reflections about the role of
experimentation in our work, discussing topics such as the use of benchmark
instances vs instance generators, or the statistical assessment of empirical
results. That is, all the statements included in this document are personal
views and opinions, which can be shared by others or not. Certainly, having
different points of view is the basis to establish a good discussion process.
- Abstract(参考訳): 実験は、定量的な観察を収集し、仮説を検証し、その改革の証拠を提供することができるため、人工知能の研究の本質的な部分である。
そのため、実験は研究目的と整合し、それぞれのケースで関連する問題に適切に対処する必要がある。
残念なことに、この文学は実験が厳密で説得力のない作品に満ちており、しばしば、関連する研究問題に答えるよりも、事前の信念を支持するように設計されている。
本稿では,メタヒューリスティックな最適化の分野に焦点をあてる。これは我々の仕事のメインの分野であり,この手紙を動機づけた不正行為を観察した場所である。
たとえこの原稿の焦点を研究の実験的部分に限定したとしても、私たちの主な目標は、作品の真に批判的な評価の種を縫い合わせることであり、個人とコミュニティの両方でリフレクションプロセスを引き起こします。
このようなリフレクションプロセスは複雑すぎて,全体として取り組めません。
そのため、本文書では、ベンチマークインスタンス対インスタンスジェネレータの使用や実験結果の統計的評価といったトピックについて議論し、作業における実験の役割についての考察を含めます。
すなわち、この文書に含まれる全ての声明は、他人が共有できるかどうかに関わらず、個人的な見解と意見である。
確かに、異なる視点を持つことは、良い議論プロセスを確立するための基盤です。
関連論文リスト
- Good Idea or Not, Representation of LLM Could Tell [86.36317971482755]
我々は、大規模言語モデルの知識を活用し、科学的アイデアのメリットを評価することを目的としたアイデアアセスメントに焦点をあてる。
我々は、このタスクに対する様々なアプローチのパフォーマンスを訓練し評価するために、細心の注意を払って設計された、フルテキストを持つ約4万の原稿からベンチマークデータセットをリリースする。
その結果, 大規模言語モデルの表現は, 生成出力よりもアイデアの価値を定量化する可能性が高いことが示唆された。
論文 参考訳(メタデータ) (2024-09-07T02:07:22Z) - My part is bigger than yours -- assessment within a group of peers [0.0]
プロジェクト(例えば、共同研究論文を書くなど)は、しばしばグループ作業である。最後に、各コントリビュータは、それぞれのコントリビューションを、しばしば口頭で識別する。
これは、論文作成におけるシェア(パーセント)が個々の著者によるものであるかという問題に繋がる。
本稿では,専門家の見解を集約するシンプルなモデルを提案し,その優先順位を他の専門家による評価と直接リンクする。
論文 参考訳(メタデータ) (2024-07-01T22:54:51Z) - What Can Natural Language Processing Do for Peer Review? [173.8912784451817]
現代の科学ではピアレビューが広く使われているが、それは難しく、時間がかかり、エラーを起こしやすい。
ピアレビューに関わるアーティファクトは大部分がテキストベースであるため、自然言語処理はレビューを改善する大きな可能性を秘めている。
筆者らは、原稿提出からカメラ対応リビジョンまでの各工程について詳述し、NLP支援の課題と機会について論じる。
論文 参考訳(メタデータ) (2024-05-10T16:06:43Z) - Chain-of-Factors Paper-Reviewer Matching [32.86512592730291]
本稿では,意味的・話題的・引用的要因を協調的に考慮した,論文レビューアマッチングのための統一モデルを提案する。
提案したChain-of-Factorsモデルの有効性を,最先端のペーパー-リビューアマッチング手法と科学的事前学習言語モデルと比較した。
論文 参考訳(メタデータ) (2023-10-23T01:29:18Z) - Scientific Opinion Summarization: Paper Meta-review Generation Dataset, Methods, and Evaluation [55.00687185394986]
本稿では,論文レビューをメタレビューに合成する,科学的意見要約の課題を提案する。
ORSUMデータセットは、47のカンファレンスから15,062のメタレビューと57,536の論文レビューをカバーしている。
実験の結果,(1)人間による要約は,議論の深みや特定の領域に対するコンセンサスや論争の特定など,必要な基準をすべて満たしていないこと,(2)タスクの分解と反復的自己調整の組み合わせは,意見の強化に強い可能性を示唆している。
論文 参考訳(メタデータ) (2023-05-24T02:33:35Z) - Twin Papers: A Simple Framework of Causal Inference for Citations via
Coupling [40.60905158071766]
この効果を調査する上で大きな困難は、現実には利用できない反事実的な結果を知る必要があることである。
提案された枠組みでは、互いに双子として引用する2つの論文が検討されている。
本研究は,異なる決定を取り入れた双子の論文を調査し,これらの研究による研究効果の進展を観察し,その差による意思決定の効果を推定する。
論文 参考訳(メタデータ) (2022-08-21T10:42:33Z) - Near-Optimal Reviewer Splitting in Two-Phase Paper Reviewing and
Conference Experiment Design [76.40919326501512]
総割り当ての類似性を最大化するために、レビュアーを段階または条件に分けるにはどうすればいいのか?
実会議データに関連する複数のデータセットに対して、ランダムに位相/条件を均一に分割することで、オラクルの最適割り当てとほぼ同等の割り当てが可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-08-13T19:29:41Z) - Can We Automate Scientific Reviewing? [89.50052670307434]
我々は、最先端自然言語処理(NLP)モデルを用いて、科学論文の第一パスピアレビューを生成する可能性について論じる。
我々は、機械学習領域で論文のデータセットを収集し、各レビューでカバーされているさまざまなコンテンツに注釈を付け、レビューを生成するために論文を取り込み、ターゲットの要約モデルを訓練する。
総合的な実験結果から、システム生成レビューは、人間によるレビューよりも、論文の多くの側面に触れる傾向にあることが示された。
論文 参考訳(メタデータ) (2021-01-30T07:16:53Z) - What Makes a Good Summary? Reconsidering the Focus of Automatic
Summarization [49.600619575148706]
フィールドの現在の焦点は、参加者の希望と完全に一致していないことがわかります。
以上の結果から,自動要約のより広い視点を取り入れることが重要であると論じる。
論文 参考訳(メタデータ) (2020-12-14T15:12:35Z) - Argument Mining Driven Analysis of Peer-Reviews [4.552676857046446]
本稿では,編集者,メタレビュアー,レビュアーの支援を目的としたArgument Miningに基づくアプローチを提案する。
以上の知見の1つは、ピアレビュープロセスで使われる引数が他のドメインの引数とは異なるため、事前学習されたモデルの転送が困難であるということです。
私たちは、注釈付き引数を持つさまざまなコンピュータサイエンス会議の新しいピアレビューデータセットをコミュニティに提供します。
論文 参考訳(メタデータ) (2020-12-10T16:06:21Z) - Aspect-based Sentiment Analysis of Scientific Reviews [12.472629584751509]
本研究は,受理論文と受理論文ではアスペクトベース感情の分布が著しく異なることを示す。
第2の目的として、論文を閲覧するレビュアーの間での意見の不一致の程度を定量化する。
また, 審査員と議長との意見の不一致の程度について検討し, 審査員間の意見の不一致が議長との意見の不一致と関係があることを見出した。
論文 参考訳(メタデータ) (2020-06-05T07:06:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。