最近这半年实在是闲,秉承着下班少玩手机的目的,7 月开始学 cuda
,8 9 月学了 C++
,10 月懈怠了一个月,11 月学了 cuda
进阶,12 月我来祸害 nndeploy
了。
一来是学完 C++
后看下我能看懂的优秀的开源项目,一方面在之前学校训练模型感觉没意思,是看看 AI
的工程化。
最近这半年实在是闲,秉承着下班少玩手机的目的,7 月开始学 cuda
,8 9 月学了 C++
,10 月懈怠了一个月,11 月学了 cuda
进阶,12 月我来祸害 nndeploy
了。
一来是学完 C++
后看下我能看懂的优秀的开源项目,一方面在之前学校训练模型感觉没意思,是看看 AI
的工程化。
利用下班时间学完了 CUDA,Anyway 忙起来真的很大程度能缓解焦虑,能忘记和忽略很多烦恼。所以寻思着结合这一年来所学,写了一个简单的 CUDA 计算框架:CUFX。
对于 C++
中的匿名函数,除了写 auto
外,还可以使用 std::function
作为类型接受匿名函数:
1 | std::function<void(int)> func = [](int x) { |
问题来了,刚开始的时候我以为 std::function<void(int)>
就是匿名函数的返回类型,在 github
上给别人发送 PR
时就发生了笑话。
实际上这两个类型并不相同,function
是一个类型擦除容器,而 lambda
匿名类型简单来说就是重载了 operator()
的类。由于 std::function
有转换构造函数,lambda
表达式得以调用这个转换构造函数,构造出这一个 std::function
对象,所以这个赋值发生了隐式类型转换。
在一些代码中,我们可能无法保留原有的数据类型,上面的匿名函数就是典型的例子。这个时候需要用一种通用的类型去使用它们,需要去掉对象原有的数据类型,也就是类型擦除 (Type Erasure)。
C++ 漫游的第一部分,起因源于项目中错误的使用 std::ref 和 std::fowrad 导致了一些神奇的 bug。而 std::ref 又涉及到了引用,左右值引用又会联想到移动语义,std::forward 又常用于模板。所以以此为契机,不如仔细学习一下 C++ 中的新特性。
2018 年计算机组成原理的大作业,五级流水不会写,三级流水写不出来。竟然没想不到多年后还会用到多级流水的思路去设计代码。
移动端算法优化是个很庞大的话题。从计算机体系到指令,涉及到非常广而深的东西。本文尝试以常见的算法为例,阐述算法在单线程场景下的加速与优化,多线程是最后的收尾,没啥可说的。而至于具体的场景,如金字塔、滤波、降噪等,优化的思路都是相同的:减少 IO,一次 IO 完成尽可能多的计算。
本文会使用 Neon, OpenCL
来优化算法,如果有可能也会引入 DSP
。本文持续更新,整理算法优化相关的经验。额外的,确保打开了 O3
编译选项,打开 release
模式等,否则会影响算法的执行时间。
之前对 C
语言中宏定义的认知十分简单,包括但不限于停留在以下浅薄的层面:
1 | #define PI 3.14 |
上述代码完全是大学课本中的用法。但当我看到实际项目中宏的用法后完全是一头雾水,所以自己也要写出那种高逼格让别人看不太懂的代码。宏远远比我想象的要强大,所以本文为每个宏技巧都配备了一个实用场景。
__VA_ARGS__
,实现一个简单的日志函数