最近看到某地召开了一个“研究院长”的会,感到多数院长的观点有点偏了,一叶障目不见泰山。比如,过度重视模型这种难题,却看不到互联网带来的机会。
以偏概全是科技工作者常犯的错误。以偏概全就像盲人摸象,会让我们产生执念、视野狭窄:只能看到部分问题、发现部分机会,导致创新能力降低。在信息社会,我们接触新知识、信息的机会很多,为什么还会以偏概全呢?我发现:人们接受信息时,脑子里是有“滤波器”的:只接受自己熟悉的、听得懂的信息或知识,而把带有新意的信息或知识滤除了。这样,接受到的信息再多,也没有完整的知识体系。
这种滤波器就是“概念”或者“名词”:同一个概念,不同人的理解其实不一样。听的一方一般只能用自己能够理解的概念去理解别人的观点。这时,自己以为理解了,其实并未真正理解。为了减少这种现象,需要思考一类问题:某个概念到底包含了哪些内涵?
今天谈谈对“优化”的理解。我发现:在数字化时代,优化的机制至少有三种。这三种机制的重点和难点不同,在不同行业和场景的侧重点也有差别。
第一种基于信息或流程再造
我们知道,现代工业(社会)是基于分工的。一件事情是由若干企业、部门或岗位协同完成的。传统条件下,在某个环节出现问题时,相关方只能得到部分信息,也只能在有限的信息下决策。从整体上看,这样的决策往往不是最优的决策。在数字化时代,参与工作的一方可以得到更多的信息并被赋予更多的权限。这就是基于信息或流程再造的优化。解决这类问题的关键是对业务熟悉、改革的目标、路径和权限清晰,未必需要很深的业务知识或算法。
第二种基于算法或软件
当涉及多因素多复杂计算时,算法和软件就变得重要了。用软件和算法的优势,是尽量减少人的失误、耽搁或干扰。当问题足够复杂时,机器决策不会出错、能够及时地给出结果。机器优化的另一个好处是可以迭代优化:人类计算时,可能要花很大的力气才能找到一个可行的做法,也就往往就不会去优化了。机器计算速度快,可以从成千上万种可能的做法中挑出最好的。为了减少人的干预,算法的适应性就要强。算法可能遇到几种困难:一种是个性化场景纷繁复杂;一种是无法在允许的范围内给出合适的解;一种是用户场景和需求不断变化。这些都会给软件和算法的设计带来很大的麻烦。
第三种基于建模或知识
当计算机进行优化时,往往需要迭代优化,前提和依据是模型或者知识。在许多工业场景下,获得准确的模型是非常困难的。导致这种现象的根本原因是影响因素多、可准确测量的数据少、对象参数(包括不可测参数)变化大、数据采集误差大。这导致模型或知识既不准确又不稳定。这时候,需要良好的现场管理和数据采集,还需要非常强的数据建模技术。数据建模技术,往往需要跨多个专业的知识,技术难度可能非常大,人才培养也很难。
区分三种机制的原因,是问题的难点不同、涉及到权限不同、涉及到专业知识的广度和深度也不一样。但在现实中,三种机制往往涉及到三个对象尺度的问题:第一种机制涉及的尺度往往最大(比如企业之间),第三种的尺度最小(比如某工艺段)。所以,多数项目只涉及到一类主要难点。这是目前的现状。对应这些模式,组织团队的时候需要引起重视,否则就会用人不当。