和初中英语老师最后一次见面是在高中毕业后,老师回来参加初中同学聚会,可就是那天出门我没带手机,老师说去了石家庄教书,寒暄了几句,问了问我考上了哪里,就告辞了。
今晨六点,梦到了她。她指责我说我太浮躁,从初中就浮躁,上了高中和大学更是不好好学习,态度一点都不认真,我本来应该咋样咋样,现在却咋样咋样,当着全班同学骂了我一顿,遂惊醒。
虽然我也快告别学生时代了,还是留此记录,我还差得很远。
和初中英语老师最后一次见面是在高中毕业后,老师回来参加初中同学聚会,可就是那天出门我没带手机,老师说去了石家庄教书,寒暄了几句,问了问我考上了哪里,就告辞了。
今晨六点,梦到了她。她指责我说我太浮躁,从初中就浮躁,上了高中和大学更是不好好学习,态度一点都不认真,我本来应该咋样咋样,现在却咋样咋样,当着全班同学骂了我一顿,遂惊醒。
虽然我也快告别学生时代了,还是留此记录,我还差得很远。
大约第三次看迭代器和生成器了,之前一直看得云里雾里,今天还是来彻底了断下。2022 年 5 月 2 日回来复习,比之前理解的好了一些。
在解决大规模图划分时,读过了很多论文,无非是在目标方程中做出一些策略上的改动,并没有什么创新的地方,最严肃的问题是,可能收敛不了。而深度学习发展的今天,获取可以考虑用DeepLearning的形式来改善大规模图划分。读了些许的论文,只有这篇是沾点边的,遂精读并做笔记,这篇论文八成是日后的对比对象了。
在论文中,最重要的一点是如何使用网络处理图数据,并定义损失函数,即如何将图划分问题迁移到NN
中。
忘了谁推荐的了,寒假买了《呼啸山庄》这本书,拖延症到七月初,时隔六个月终于看完了,两点感受:
其实之前想整理一下 Linux
系统的使用技巧的,但想想还是算了,第一工程量大;第二,很多命令打多了也就记住了,这玩意还得靠熟练;第三,个人使用期间也时常维修各种驱动问题,时常换源,每次解决步骤也没有保留下来,电脑出错因人而异,修理方式也不尽相同,所以考虑再三就没有记录。随着使用时间的累计,相信各位会有一定的排查经验的。
近期在鼓捣图神经网络,发现直接读state-of-art的论文基本读不懂,于是先决定搞懂图神经网络的最基本概念,即工作原理、处理数据流程等。因网上的众多文章(包括原论文)都有复杂的数学公式,我不是否认数学公式不好,而是胡乱的堆公式对讲明白原理没有丝毫帮助。于是决定做一篇GCN的简单阐述,意在用最简单的语言,表达最清晰的思路。