任务 描述 corpus/dataset 评价指标 SOTA 结果 Papers Chunking 组块分析 Penn Treebank ... ...
任务 描述 corpus/dataset 评价指标 SOTA 结果 Papers Chunking 组块分析 Penn Treebank ... ...
我的一个github开源项目star数过百了,非常开心,感谢大家。 前言 前面只顾着讲算法,讲损失,讲训练参数设置和细节,缺忽视了一个重要的东西,那就是目标检测的评价标准是什么?这一节,我们就来搞懂这个问题。...
标签: 评测数据
信息学奥林匹克竞赛NOIP2012提高组复赛评测数据,信息学奥林匹克竞赛NOIP2012提高组复赛评测数据,信息学奥林匹克竞赛NOIP2012提高组复赛评测数据
同时评测分为两部分,自动...MMLU 是一个包含了 57 个子任务的英文评测数据集,涵盖了初等数学、美国历史、计算机科学、法律等,难度覆盖高中水平到专家水平,有效地衡量了人文、社科和理工等多个大类的综合知识能力。
本文主要针对长文本评估,梳理了当前具有代表性的长文本评测,包括Zero-SCROLLS、L-Eval、LongBench以及loge四个基准。其中关于数据集的选取,任务的设计,以及对现有模型的评估都具有很好的指引性,对于具体的细节...
蓝桥杯练习题概览 试题集名称 试题总数 更新时间 入门训练 4 2013/10/9 基础练习 30 2013/11/3 算法训练 180 2018-03-09 算法提高 220 2018-03-09 历届试题 55 2017-12-18 包括题目和测试数据
SMP2020微博情绪分类技术评测数据集 本次技术评测使用的标注数据集由哈尔滨工业大学社会计算与信息检索研究中心提供,原始数据源于新浪微博,由微热点大数据研究院提供,数据集分为两部分。 第一部分为通用...
标签: NLP
评测数据全集包括 20 个话题,每个话题采集大约1000条微博,共约20000条微博。数据采用xml格式,已经预先切分好句子。每条句子的所有标注信息都包含在元素的属性中。其中opinionated表示是否观点句,polarity表示...
内容概要:本论文首先对在线心理健康评测数据分析系统的系统需求进行 分析。进行功能性需求分析时,抽象出系统各个角色及其功能范围, 分别对系统总平台统计分析模块和机构统计分析模块的功能需求进 行分析。然后对...
数据挖掘技术在大学生心理测评数据中研究应用.pdf
标签: 算法
共489道题的测试数据,可以很快的发现自己的错误。题号对应蓝桥杯的题号,按序累加就好。
标签: 情感分析
内含测评数据,评测数据,样本数据以及原始未标注数据。
蓝桥杯练习题概览 试题集名称 试题总数 更新时间 入门训练 4 2013/10/9 基础练习 30 2013/11/3 算法训练 180 2018-03-09 算法提高 220 2018-03-09 历届试题 55 2017-12-18 包括题目和测试数据
(公开整理)发展方式转变测评数据集.dta
蓝桥杯练习题概览 试题集名称 试题总数 更新时间 入门训练 4 2013/10/9 基础练习 30 2013/11/3 算法训练 180 2018-03-09 算法提高 220 2018-03-09 历届试题 55 2017-12-18 包括题目和测试数据
DuExplain预训练语言模型可解释评测数据集.zip
女士电子商务服装的评测数据集.zip
共489道题的测试数据,可以很快的发现自己的错误。题号对应蓝桥杯的题号,按序累加就好。
标签: 计算机
最新网站评测数据.doc
蓝桥杯练习题概览 试题集名称 试题总数 更新时间 入门训练 4 2013/10/9 基础练习 30 2013/11/3 算法训练 180 2018-03-09 算法提高 220 2018-03-09 历届试题 55 2017-12-18 包括题目和测试数据
基于Apriori算法的高校学生综合测评数据挖掘.pdf
CCF-全国程序设计比赛普及组数据,即原来的CCF-noip比赛,现在更名为软件认证能力测试,此数据为官方认证,机不可失,
基于WEKA的高校学生综合测评数据挖掘 教育资料.pdf
历届中文句法错误诊断技术评测数据集.zip
DeepMind 的 Gopher 和 Chinchilla 这两个模型甚至只看 MMLU 的分数,因此我们想要构造一个中文的,有足够区分度的,多学科的基准榜单,来辅助开发者们研发中文大模型。我们花了大概三个月的时间,构造了一个覆盖...
基于ENA的学习者测评数据分析——以C语言实验课程为例
#资源达人分享计划#
标签: 微博情绪分析
nlpcc2013评测数据集
NOIP2018已经过去,许多人的心中都留下了阴影。这是NOIP2018的官方测评数据,希望能帮助你。