0%

一些论文的笔记,不会写的很详细,只会列出核心思想和我认为的优缺点,miniImageNet中5-way,1-shot的准确率,不会详细解读每一篇论文。

  1. Meta-Transfer Learning for Few-Shot Learning, CVPR, 2019
  2. Adaptive Cross-Modal Few-shot Learning, NIPS, 2020
  3. Meta-Learning of Neural Architectures for Few-Shot Learning, CVPR, 2020
  4. Charting the Right Manifold: Manifold Mixup for Few-shot Learning, IEEE(WACV), 2020
  5. A BASELINE FOR FEW-SHOT IMAGE CLASSIFICATION, ICL, 2020
  6. Zero and Few Shot Learning with Semantic Feature Synthesis and Competitive Learning, IEEE transactions on pattern analysis and machine intelligence, 2020

Warning:优缺点仅代表个人意见。

今天读小样本的论文又遇到了重参数技巧,记得之前在 VAE 中也看到了它。遂来做一个归纳整理,了解重参数到底是什么,一般都用在什么背景下。

最近的生活像一团屎,我是一个棍子,开心了就搅动一下,不开心了就跟它一起呆着。经历了很多,一件一件来吧。

又来做小样本问题了,别问,问就是我也不知道,方向换来换去的。我看过 Life long learning,深度学习的聚类,大规模图划分(我只是感觉这几年算法岗很内卷,泡沫化严重。不管什么专业的,都可以来搞计算机或智能,门槛低但要求高,甚至跨专业来的还认为撕代码没用,这个行业一言难尽。

打开搜索引擎搜索核函数,都会发现 SVM 会一起出现。但是核函数是一种技巧,并不只限于 SVM。其实,核技巧是一个非常纯粹的数学方法,不应该一上来就扯上 SVM,也没必要。因为这个技巧不仅应用在SVM中,它解决了数据映射到高维空间之后点积的计算量过于复杂的问题。很多人啰啰嗦嗦说了一大堆,把原本很简单的东西搞的很复杂,甚至还在推 SVM 的公式,就像孔乙己问茴香豆的『茴』有几种写法一样的没意思。

继续啃算法,今天来看并查集。并查集是一种数据结构,可以跟踪一组元素,它们分布在几个不相交(非重叠)子集合中。 它也被称为不相交集数据结构。这是什么意思呢?例如,并查集数据结构可以计算当前输入分成几个不相交的组织,两个子节点是否位于同一组织内。

对我会做的甲级题目进行了分类整理,仅代表我个人的分类,不是很严谨。如有的题可以哈希,也可以 map;有的题是字符串的处理,但也涉及到了素数什么的。

此外,甲级以字符串处理、数组使用、数据精度为简单题目;借助结构体实现多条件排序,通常难度适中,就是排序规则有点复杂;而树、图涉及到的数据结构为中等难度的题,这类题目建议按类型刷,能够举一反三;30分的题为难度大的题目,涉及到动态规划和一些算法等,以我目前对算法的接触而言,我不太会那些。

  • 20分:稍微复杂的编程应用,逻辑复杂,但不涉及数据结构;
  • 25分:常见数据结构的应用,如树、图、链表等;
  • 30分:有的会,大部分我不会,就放过了。

整体而言,不适合刚入门 OJ 的同学进行练手,用来熟练编程和掌握基本数据结构还是可以的。