0%

其实之前想整理一下 Linux 系统的使用技巧的,但想想还是算了,第一工程量大;第二,很多命令打多了也就记住了,这玩意还得靠熟练;第三,个人使用期间也时常维修各种驱动问题,时常换源,每次解决步骤也没有保留下来,电脑出错因人而异,修理方式也不尽相同,所以考虑再三就没有记录。随着使用时间的累计,相信各位会有一定的排查经验的。

近期在鼓捣图神经网络,发现直接读state-of-art的论文基本读不懂,于是先决定搞懂图神经网络的最基本概念,即工作原理、处理数据流程等。因网上的众多文章(包括原论文)都有复杂的数学公式,我不是否认数学公式不好,而是胡乱的堆公式对讲明白原理没有丝毫帮助。于是决定做一篇GCN的简单阐述,意在用最简单的语言,表达最清晰的思路。

背景:近期有较多的学弟学妹问我关于保研的事情,每次都回答一遍显得很累,所以整理在这里了,希望对学弟学妹有帮助。全文高能,歧视低学历(如我的外省二本院校),歧视高学历(如我之前的各种同学大多认为学历没用),这两类人自行忽略本文,没在一个世界。且,以下内容更多的针对我这种二本院校出身的,且身在热门专业的学生,如计算机、金融等。对于不是很热门的专业,或者211,985的学生可一笑而过。

最重要的:我校的大多专业都是一个专业只有一个保研名额,竞争激烈,且我校很多学院承认一些水平较低的论文,如国家级、省级的期刊,而这些论文是可以花钱买的,所以还请各位善良。多学学我,保研前一年丝毫没心思提成绩搞论文整比赛,反而天天在宿舍睡觉。二本双非的保研到211、985已经很不容易了,请不要再给他们添乱,把机会留给专业里真正有水平的人。

在研究 Life Long Learning 的过程中,普遍要解决三个问题:(1)知识的保留问题,不能忘记之前学过的知识,但也要接收新的知识;(2)知识的迁移,与迁移学习不同的是,持续学习要做到学习新知识的同时能巩固旧知识,而不是单纯的从旧知识迁移到新知识;(3)模型的扩展,当模型超过一定容量,模型的结构应付不了更复杂的结构,这个时候就要对模型做出一定的扩展。

在最近读论文的过程中,有一种思路是:虽然我存储不了过去任务的数据,那我们自己学习一个模型用来生成过去任务的数据如何?读了些许的论文,发现里面有很多 VAE 的生成工作,遂整理 VAE 如下。

这可能也是我毕业设计的最终章了,由PyQt5创建两个线程,数据读取的线程负责读取Arduino发送的距离信息,主线程负责倒车雷达动画的实时显示。还是要认真一点,也算是给大学毕业一个交代。然而还不开学

在之前的学习深度学习的过程中,以MLP为例,仅仅是知道了梯度下降和反向传播能很好的降低预测误差(本文暂且不谈论梯度消失和爆炸的问题),使得训练出来的模型能够对未知的数据进行预测或者分类,以此来达到智能的目的。

时至今日,意识到不求甚解释不好的行为,于是下决心搞懂梯度下降和反向传播的原理。结果上网一搜,呵,大部分tm的是各处偷来的截图,截图里还有三四个水印,最后胡乱的堆一些数学公式,讲解的并不够彻底,也不通俗易懂。于是本文决定图解反向传播和梯度下降,并配备必要的数学计算,使读者一目了然。