0%

不出意外的话,这应该是 python 复习的最后一部分了,之前写 python 的时候,一般是在实践中积累一些常见的用法而后系统的学习,比如生成器装饰器、高级数据结构、各种工具库乃至 __init__.py 等细节。但 python 帮开发者自动进行了垃圾回收,所以一直没涉足这个领域,今天来了解一下 python 中垃圾回收的三种机制:引用计数、标记清除和分代回收。

很久之前我觉得移动端应用几百兆的模型不切实际,在不考虑蒸馏、量化等压缩方法下,发现了 MobileNet 设计的很神奇,大小只有几 MB,可以说是一股清流了。就整理发布了一下,然后今天发现找不到了,神奇。(于是顺手和 ShuffleNet 一并整理到轻量化的神经网络中)

在之前 yolox 解析与改进 的文章中,提到了使用 CIoU Loss 改进 SimOTA 分配正样本机制导致的小目标检测精度低的问题,就顺手来整理一些常用定位损失与演化过程。本文所有的图,绿色为 Truth,蓝色为预测结果。

计算器问题大约在大二数据结构的课程上学过,当时是使用栈来解决,此外还需要设置很多符号的优先级,以此判断是否弹栈,代码写的很长很麻烦。今天又遇到了这种题,也有了简单的解法,做一个整理。

去年寒假接到了一个遥感图像语义分割的任务,存在着严重的类别不平衡问题。当时想着使用经典的类别不平衡损失 focal loss 和 dice loss 解决一下,但是效果不升反降,甚至不如传统的交叉熵损失函数。

而且我在 github 上搜类似的项目,也都不推荐使用这些 loss。但是在 mmseg 的文档中,我们又发现 dice loss 有明显的提升,来冷静分析一下这是为什么。本文默认读者了解 focal loss 和 dice loss,因此不会对损失函数进行讲解。

之后的日子,大概会放缓刷题的脚步进行简单的整理,因为有些题目是有规律的,需要做号总结和整理,不能刷一个忘一个。今日总结:题目要求返回所有结果,且能找到分界点分解为子问题的,都可以套用分治枚举算法。

书接上文,因为参加 NLP 的比赛不知道什么是 bert 实在有点说不过去,于是花了三天时间看了下 bert 的基本概念和代码。不得不说,网上阳间的 bert 预训练代码太少了,大多是转载,mark 甚至文不对题之类没啥用的东西,但占据了搜索引擎的首页的热度,像无耻的营销号一样。