上传者: qq_38873863
|
上传时间:2025/5/8 18:45:30
|
文件大小:10.75MB
|
文件类型:pdf
BAT机器学习面试1000题系列
BAT机器学习面试1000题系列1前言1BAT机器学习面试1000题系列21归一化为什么能提高梯度下降法求解最优解的速度?222归一化有可能提高精度223归一化的类型231)线性归一化232)标准差标准化233)非线性归一化2335.什么是熵。
机器学习ML基础易27熵的引入273.1无偏原则2956.什么是卷积。
深度学习DL基础易38池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n)40随机梯度下降46批量梯度下降47随机梯度下降48具体步骤:50引言721.深度有监督学习在计算机视觉领域的进展731.1图像分类(ImageClassification)731.2图像检测(ImageDection)731.3图像分割(SemanticSegmentation)741.4图像标注–看图说话(ImageCaptioning)751.5图像生成–文字转图像(ImageGenerator)762.强化学习(ReinforcementLearning)773深度无监督学习(DeepUnsupervisedLearning)–预测学习783.1条件生成对抗网络(ConditionalGenerativeAdversarialNets,CGAN)793.2视频预测824总结845参考文献84一、从单层网络谈起96二、经典的RNN结构(NvsN)97三、NVS1100四、1VSN100五、NvsM102RecurrentNeuralNetworks105长期依赖(Long-TermDependencies)问题106LSTM网络106LSTM的核心思想107逐步理解LSTM108LSTM的变体109结论110196.L1与L2范数。
机器学习ML基础易163218.梯度下降法的神经网络容易收敛到局部最优,为什么应用广泛?深度学习DL基础中178@李振华,https://www.zhihu.com/question/68109802/answer/262143638179219.请比较下EM算法、HMM、CRF。
机器学习ML模型中179223.Boosting和Bagging181224.逻辑回归相关问题182225.用贝叶斯机率说明Dropout的原理183227.什么是共线性,跟过拟合有什么关联?184共线性:多变量线性回归中,变量之间由于存在高度相关关系而使回归估计不准确。
184共线性会造成冗余,导致过拟合。
184解决方法:排除变量的相关性/加入权重正则。
184勘误记216后记219
本软件ID:10274428