摘要:作为一只半路出家的野生深度学习程序猿,没人指导,一切都靠自己摸索,在学习实践的路上走过不少弯路. 我正式读的第一篇论文是目标检测网络yolov3的论文.yolov3原生代码是作者用纯c手撸的,叫做darknet,其实也算一个框架,游离于主流深度学习框架之外.这是 "项目地址" . 最近跟着 "这本书 阅读全文
posted @ 2020-01-19 09:58 core! 阅读 (3) 评论 (0) 编辑
摘要:本文记录一些对深度学习的思考总结.意识流写法,想到哪写到哪,日后不定期更新补充. 在没有接触深度学习的时候,觉得这是个非常高大上的技术,数学基础要求非常多,上手门槛非常高.我想很多人和我有一样的想法.这种对深度学习的印象,我想很大一部分来自铺天盖地的自媒体的有关AI的报道解读,造成了一种深度学习,人 阅读全文
posted @ 2019-06-01 11:40 core! 阅读 (606) 评论 (7) 编辑
摘要:卷积神经网络,在图像识别和自然语言处理中有很大的作用,讲cnn的中文博客也不少,但是个人感觉说的脉络清晰清晰易懂的不多. 无意中看到这篇博客,写的很好,图文并茂.建议英文好的直接去看原文.英文不好的就直接看我这篇,算是读后总结吧.原文里对数学原理的着墨不多,在这篇文章里我会留着相关的标题,待日后慢慢 阅读全文
posted @ 2019-01-28 13:56 core! 阅读 (505) 评论 (1) 编辑
摘要:titanic数据集是个著名的数据集.kaggle上的titanic乘客生还率预测比赛是一个很好的入门机器学习的比赛. 数据集下载可以去http://www.kaggle.com/c/titanic/data. 本身写这个系列笔记是作为自己机器学习的记录,也为了加深自己对机器学习相关知识的理解.但 阅读全文
posted @ 2018-12-15 16:59 core! 阅读 (326) 评论 (0) 编辑
摘要:作为一只半路出家的野生深度学习程序猿,没人指导,一切都靠自己摸索,在学习实践的路上走过不少弯路. 我正式读的第一篇论文是目标检测网络yolov3的论文.yolov3原生代码是作者用纯c手撸的,叫做darknet,其实也算一个框架,游离于主流深度学习框架之外.这是 "项目地址" . 最近跟着 "这本书 阅读全文
posted @ 2020-01-19 09:58 core! 阅读 (3) 评论 (0) 编辑
摘要:残差网络ResNet resnet是何凯明大神在2015年提出的.并且获得了当年的ImageNet比赛的冠军. 残差网络具有里程碑的意义,为以后的网络设计提出了一个新的思路. googlenet的思路是加宽每一个layer,resnet的思路是加深layer. 论文地址: 论文里指出,随着网络深度的 阅读全文
posted @ 2020-01-17 16:57 core! 阅读 (72) 评论 (0) 编辑
摘要:批量归一化 论文地址: 批量归一化基本上是现在模型的标配了 . 说实在的,到今天我也没搞明白batch normalize能够使得模型训练更稳定的底层原因,要彻底搞清楚,涉及到很多凸优化的理论,需要非常扎实的数学基础才行. 目前为止,我理解的批量归一化即把每一层输入的特征,统一变换到统一的尺度上来, 阅读全文
posted @ 2020-01-16 16:38 core! 阅读 (120) 评论 (0) 编辑
摘要:GoogLeNet GoogLeNet和vgg分别是2014的ImageNet挑战赛的冠亚军.GoogLeNet则做了更加大胆的网络结构尝试,虽然深度只有22层,但大小却比AlexNet和VGG小很多,GoogleNet参数为500万个,AlexNet参数个数是GoogleNet的12倍,VGGNe 阅读全文
posted @ 2020-01-15 13:48 core! 阅读 (109) 评论 (0) 编辑
摘要:网络中的网络NIN 之前介绍的LeNet,AlexNet,VGG设计思路上的共同之处,是加宽(增加卷积层的输出的channel数量)和加深(增加卷积层的数量),再接全连接层做分类. NIN提出了一个不同的思路,串联多个由卷积层和'全连接层'(1x1卷积)构成的小网络来构建一个深层网络. 论文地址: 阅读全文
posted @ 2020-01-14 14:32 core! 阅读 (118) 评论 (0) 编辑
摘要:VGG AlexNet在Lenet的基础上增加了几个卷积层,改变了卷积核大小,每一层输出通道数目等,并且取得了很好的效果.但是并没有提出一个简单有效的思路. VGG做到了这一点,提出了可以通过重复使⽤简单的基础块来构建深度学习模型的思路. 论文地址: vgg的结构如下所示: 上图给出了不同层数的vg 阅读全文
posted @ 2020-01-10 22:54 core! 阅读 (124) 评论 (0) 编辑
摘要:AlexNet AlexNet是2012年提出的一个模型,并且赢得了ImageNet图像识别挑战赛的冠军.首次证明了由计算机自动学习到的特征可以超越手工设计的特征,对计算机视觉的研究有着极其重要的意义. AlexNet的设计思路和LeNet是非常类似的.不同点主要有以下几点: 激活函数由sigmoi 阅读全文
posted @ 2020-01-08 18:29 core! 阅读 (83) 评论 (0) 编辑
摘要:卷积神经网络 在之前的文章里,对28 X 28的图像,我们是通过把它展开为长度为784的一维向量,然后送进全连接层,训练出一个分类模型.这样做主要有两个问题 1. 图像在同一列邻近的像素在这个向量中可能相距较远。它们构成的模式可能难以被模型识别。 2. 对于大尺寸的输入图像,使用全连接层容易造成模型 阅读全文
posted @ 2020-01-07 15:33 core! 阅读 (119) 评论 (0) 编辑
摘要:GPU计算 默认情况下,pytorch将数据保存在内存,而不是显存. 查看显卡信息 我的机器输出如下: 单卡,gtx 1050,4g显存. 查看gpu是否可用 查看gpu数量 查看当前gpu号 查看设备名 把tensor复制到显存 使用 可以将CPU上的 转换(复制)到GPU上。如果有多块GPU,我 阅读全文
posted @ 2020-01-03 17:10 core! 阅读 (78) 评论 (0) 编辑
摘要:模型读取和存储 总结下来,就是几个函数 1. torch.load()/torch.save() 通过python的pickle完成序列化与反序列化.完成内存磁盘转换. 2. Module.state_dict()/Module.load_state_dict() state_dict()获取模型参 阅读全文
posted @ 2020-01-03 16:01 core! 阅读 (152) 评论 (0) 编辑