注:数据集太大,可在压缩包中的数据集html页面中点击链接下载完整数据集。
本项目采用ASSISTments2012数据集,在所有数据集中,问题通常只有一种技能,但极少数可能与两种或三种技能相关联。
它通常取决于内容创建者给出的结构。
一些研究人员通过复制将具有多种技能的记录分成多个单一技能记录。
Wilson[6]声称这种类型的数据处理可以人为地显著提高预测结果,因为这些重复行可以占到DKT模型的Assistment09数据集中大约25%的记录。
因此,为了比较的公正性,我们在所有数据集中去掉了重复和多技能重复记录。
本项目基于pandas+Matplotlib+seaborn等工具包对学生的测试数据进行可视化统计分析,并利用学生2012年和2013年上半年不同类型题目的测试结果数据,构建机器学习面向,实现对学生的画像建模,以此预测2013年下半年测试对不同类型问题的表现。
可以看出,该决策树模型的预测结果如下,可以较好的依据用户测试的行为数据(测试过的试题种类、测试时间、犹豫情况、提示次数等等),预测该学生能否能考试达标(测试准确率>60%)
1
本书涵盖常见的神经网络(BP、RBF、SOM、Hopfield、Elman、LVQ等)以及相关的智能算法(SVM、决策树、随机森林、极限进修等)。
2018/4/19 15:04:29 55.09MB MATLAB 神经网络
1
决策树算法与决策树相关的重要算法1、Hunt,Marin和Stone于1966年研制的CLS学习系统,用于学习单个概念。
2、1979年,J.R.Quinlan给出ID3算法,并在1983年和1986年对ID3进行了总结和简化,使其成为决策树学习算法的典型。
3、Schlimmer和Fisher于1986年对ID3进行改造,在每个可能的决策树节点创建缓冲区,使决策树可以递增式生成,得到ID4算法。
4、1988年,Utgoff在ID4基础上提出了ID5学习算法,进一步提高了效率。
1993年,Quinlan进一步发展了ID3算法,改进成C4.5算法。
5、另一类决策树算法为CART,与C4.5不同的是,CART的决策树由二元逻辑问题生成,每个树节点只要两个分枝,分别包括学习实例的正例与反例。
CLS,ID3,C4.5,CART第6章决策树
2015/7/6 13:16:21 1.15MB 决策树
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡