其实是想把这个的标签设成python的,后来想想设置成keras,后来是改成了deeplearning。如果想看算法或代码请往他处,这里只是记录学习中的收获,或者更多的是理解。就像AI的发展,每次遇到坑都会出现新的解决方案和算法,所以重点不是那些算法,而是如何面对问题,解决问题,什么样的新思路。
本文内容如下:有关读完keras和tensorflow官方文档的收获。
如果对本文有疑问或者想找男朋友,可以联系我,点击此处有我联系方式。
大概是元旦放假闲的没事干把剩余的Tensorflow的官方文档看完了,同样是大年初三又开始没事干,花了几天读完了Keras的官方文档,谈谈收获吧。当然不是说哪个库不好,还有更多的库比如pytorch,caffee,又不可能都学,重点是方法。
相比之下,两份文档都是先从基本的二分类开始说起,到后面的多分类,二分类是什么激活函数,多分类又是什么激活函数。之后开始了one-hot编码,词嵌入,图像卷积,循环神经网络,等等等等。
说实话在官方文档的带领下,写一份代码并不是很难,重点是对中间数学过程的理解。
比如什么是softmax,比如什么是词嵌入,为什么词嵌入,图像处理为什么使用卷积,valid和same卷积是什麽,循环网络是如何循环的,eproch,batch是什么,梯度下降是如何运行的,时间步、序列长度又是什么,等等等等,我感觉这些应该才是关心的重点。
参数忘了可以随时查,参数含义忘了也可以查,但是还是要理解基本的观念。
如果感兴趣会继续读下去,当然不在想说卷积、池化是如何运行的,只想更关心原理。
虽然写了一堆看似没用的话,但是时至今日,踩了很多的坑后才发现这些才是重点。所以,不必着急写代码,也不用着急去干项目和比赛,先把基础的理念搞清楚。