采用LSTM循环神经网络对时序数据进行预测,根据评价目标对测试集进行误差计算,具有较好的预测精度
2018/5/5 13:22:12 5KB LSTM 一维预测
1
基于lstm的语义类似度计算模型,使用百度qa的数据集进行实验。
2019/7/1 11:53:02 8KB lstm nlp
1
虚假新闻检测器使用LSTM-RNN通过使用LSTM(长期短期记忆)递归神经网络,开发了深度学习模型来识别文章何时可能是假新闻。
数据集数据集在kaggle网站上给出任务在nltkFramework的协助下,通过删除标点符号,停用词等对文本数据进行预处理执行一种热编码,包括填充序列应用词嵌入语料库文件训练具有100个神经元的单层LSTM模型训练数据的准确性为99%,测试数据的准确性为90%
2018/8/11 9:08:51 2.75MB JupyterNotebook
1
本ppt详细引见了LSTM和RNN的结构及公式推导,并对二者进行了比较
2016/5/8 20:10:31 2.28MB LSTM与RNN
1
细粒度分析学科领域热点主题发展脉络并对利用机器学习算法对未来发展趋势进行准确预测研究。
[方法/过程]提出一种基于机器学习算法的研究热点趋势预测方法与分析框架,以基因工程领域为例利用主题概率模型识别WOS核心集中论文摘要数据研究热点主题并进行主题演化关联构建,然后选取BP神经网络、支持向量机及LSTM模型等3种典型机器学习算法进行预测分析,最初利用RE指标和精准度指标评价机器学习算法预测效果并对基因工程领域在医药卫生、农业食品等方面研究趋势进行分析。
[结果/结论]实验表明基于LSTM模型对热点主题未来发展趋势预测准确度最高,支持向量机预测效果次之,BP神经网络预测效果较差且预测稳定性不足,同时结合专家咨询和文献调研表明本文方法可快速识别基因领域研究主题及发展趋势,可为我国学科领域大势研判和架构调整提供决策支持和参考
2020/2/19 19:04:15 1.69MB 机器学习
1
深度学习在自然言语处理中的应用,Tensorflow下构建LSTM模型进行序列化标注
2022/9/3 5:28:23 893KB Tensorflow LSTM
1
递归神经网络(RNN)近些年来被越来越多地应用在机器学习领域,尤其是在处理序列学习任务中,相比CNN等神经网络功能更为优异。
但是RNN及其变体,如LSTM、GRU等全连接网络的计算及存储复杂性较高,导致其推理计算慢,很难被应用在产品中。
一方面,传统的计算平台CPU不适合处理RNN的大规模矩阵运算;
另一方面,硬件加速平台GPU的共享内存和全局内存使基于GPU的RNN加速器的功耗比较高。
FPGA由于其并行计算及低功耗的特性,近些年来被越来越多地用来做RNN加速器的硬件平台。
对近些年基于FPGA的RNN加速器进行了研究,将其中用到的数据优化算法及硬件架构设计技术进行了总结介绍,并进一步提出了未来研究的方向。
2017/3/13 16:19:19 1.39MB 递归神经网络 FGPA 加速器
1
针对用电过程中的盗电窃电问题,基于数据挖掘的思想提出了一种自动检测窃电行为的方法。
通过分析用户用电数据的特点,在循环神经网络(RNN)算法的基础上引入长短期记忆单元(LSTM),通过输入门、输出门与遗忘门等函数选择性地保留记忆单元的输入输出信息,改善算法训练时的梯度消失现象。
将RNN网路改进为并行化网络,将长时间序列的输入特征向量进行片段化处理,克服RNN网络在处理长序列时的信息丢失缺点。
使用国家电网的公开数据集进行仿真实验。
结果表明,在相同的时间复杂度下,相较于传统RNN网络,改进算法对窃电行为的识别精度提升到了92.85%,模型的交叉熵损失下降为0.253,AUC增长至0.871,算法的综合功能显著提升。
2021/9/2 6:54:54 1.41MB RNN 数据挖掘 防窃电 智能电网
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡