0%

我当时也想用宇宙第一IDE,可实在是太大了,i7-9750H的CPU配32GB内存运行起来都很卡顿,我人傻了,这得啥配置才能驾驭visual studio。后来想想还是废点劲去配轻量工具吧。

众所周知

  • public 继承时,所有的基类成员的访问属性在派生类中不会改变。派生类中只能访问基类的 publicprotected 成员,不能访问 private 成员;在外部派生类对象只能访问 public 的成员;
  • protected 继承时,基类的 public 成员到派生类中变成 protected,其余成员的属性不变。派生类只能访问基类的 publicprotected 成员;在类的外面,派生类无法访问基类的任何成员。

但覆写抽象类(形状)的纯虚函数(求面积)时,想在派生类(三角形)的外面调用成员(求面积)。如果基类求面积的方法位于 protected 域,此时需要把覆写的成员移动到 public 域下面,这样好吗?还是说,采取某些手段,仍然保持覆写的成员在 protected 域下面?

如果看不懂本文提到的概念,请回去补C++基础。

反正跑数据也要等待,不如来写几篇博客,这也是我第一次参加这样类型的比赛,做一下相关经验的总结。在天池的2021广东工业智造创新大赛,智能算法赛:瓷砖表面瑕疵质检中,提供了基础的 json 数据和文件,这里介绍三种预处理方式:

  1. 普通数据制作 COCO 数据集
  2. 普通数据制作 mask 数据
  3. 因图片尺寸过大显存溢出,所以需要切割图片使得切割图片包含目标区域
  4. 自适应切割
  5. 类别平衡处理

在本科建模学优化的时候,老师说复杂情况下不可能求出目标函数的最优解,用优化解代替就可以了,当时我还信了。直到研究生『工程优化』学了填充函数法,才知道在『多决策变量、单目标函数』的复杂情况下,理论上是可以求出目标函数的最优值的。

而对于『多决策变量、多目标优化』的问题中,还是进化算法等方法较为实用。以遗传算法为例,直接一波种群撒到可行域中,这样会比传统方法便捷一些。

在很久之前,看过粒子群算法等相关的以概率收敛的优化算法。当时那个破教程写的又臭又长,丝毫没看懂。今日考试重温了一下,原来是这么简单。八点半考完的,闲的没事于是手动实现了粒子群算法。之后考虑在本文中添加遗传算法、模拟退火这两个主流的碰运气的优化算法。

这类算法被优化课程的老师嘲讽了一番,缺乏严格的推导证明和参数的解释,大多是以科学的方法去碰运气,在解空间内进行搜索。

自从学了『工程优化』这门课程,也意识到优化是一潭很深的水。只是简单的将几个目标线性加权优化,或优化完一个目标在优化另一个目标是很愚蠢的做法,亲身试验后的确发现这是最差的解法,解会出现不收敛、随机性、震荡等各种情况。如果在神经网络中恰好遇到了多任务学习的问题,且两个问题相互制约,那么可以考虑将多任务学习转换为多目标优化,融合成最终的一个loss函数,这会比线性加权好上很多。本论文发表在2018年的NIPS上,个人认为具有借鉴意义和开创性工作,所以记录于此。