Datawhale学习打卡-01(Matplotlib).md
Datawhale学习打卡-01(Matplotlib).md
Datawhale学习打卡LeeML-Task03(梯度下降)
Datawhale学习打卡LeeML-Task03误差误差来源解释:类比解释数学证明估计变量x的偏差和方差估计变量x的偏差估计变量x的方差不同模型的偏差和方差考虑不同模型的偏差考虑不同模型的方差过拟合和欠拟合怎么判断偏差和...
记《手动学深度学习》组队学习第二次打卡 打卡内容 线性回归代码实现(基于Pytorch) 理论复习 线性回归理论部分可参考上一篇博客 线性回归模型从零开始的实现 借助jupyter运行代码,方便清晰展示各环节的输出情况。...
参考资料:第一回:Matplotlib初相识 第一回:Matplotlib初相识 一、认识matplotlib matplotlib的地位:python数据可视化工人最强的工具。 ...想要了解自行百度,不再多介绍,直奔主题。...如其他python包一样,安装...
机器翻译和数据集 机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常称为神经机器翻译(NMT)。 主要特征:输出是单词序列而不是单个单词。 输出序列的长度可能与源序列的长度...
卷积神经网络基础 二维卷积层 本节介绍的是最常见的二维卷积层,常用于处理图像数据。 二维互相关运算 二维互相关(cross-correlation)运算的输入是一个二维输入数组和一个二维核(kernel)数组,输出也是一个二维...
Datawhale打卡周志华机器学习第四章
目录 深度卷积神经网络(AlexNet) 1. AlexNet 2.载入数据集 ...神经网络的特征提取:通过学习得到数据的多级表征,并逐级表⽰越来越抽象的概念或模式。 神经网络发展的限制:数据、硬件 AlexNet #目前GPU算力
卷积神经网络基础 本章介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 目录 二维卷积层 二维互相关运算 二维卷积层 互相关运算和卷积运算 特征图和感受野 ...
目录 Transformer 多头注意力层 基于位置的前馈网络 Add and Norm 位置编码 多层感知机注意力 测试 译码器 解码器 ...CNNs 易于并行化,却不适合捕捉变长序列内的依赖关系。...RNNs 适合捕捉长距离变长序列的依赖,但是却...
目录 注意力机制 Softmax屏蔽 点积注意力 测试 多层感知机注意力 测试 总结 引入注意力机制的Seq2seq模型 解码器 训练 训练和预测 import math import torch ... print(dirs, dirs) # 当前路径下所有子目录
目录 机器翻译和数据集 数据预处理 分词 建立词典 载入数据集 Encoder-Decoder Sequence to Sequence模型 模型 具体结构 ...机器翻译(MT):将一段文本从一种语言自动翻译为另一种语言,用神经网络解决这个问题通常...
今天一直很忙……所以没什么时间了。本章讨论重点为如何训练模型。真讨厌一些人啊,根本不相信然后对我说我要你帮我算一下,我说的过程中就使劲怼我说不对,虽然这点...学习这一篇的本章分成目标函数和优化算法两部分。
第二次打卡学习笔记 1.过拟合欠拟合及其解决方案 2.梯度消失与梯度爆炸 3.循环神经网络进阶 4.机器翻译及相关技术 5.注意力机制与Seq2seq模型 6.Transfomer 7.卷积神经网络基础 8.LeNet 9.卷积神经网络进阶 过拟合欠...
标签: 机器学习
机器学习第六章笔记
标签: 机器学习
机器学习第五章笔记
标签: 机器学习
周志华机器学习第三章笔记
记《动手学深度学习》组队学习第一次打卡。 打卡内容 线性回归 线性回归 线性回归输出是一个连续值,因此适用于回归问题。回归问题在实际中很常见,如预测房屋价格、气温、销售额等连续值的问题。与回归问题不同,...