十多年前,听到有人在一个工程哲学会议上发言:“工程师不懂什么什么道理,我们应该让他们明白什么什么道理”。在应用数学界,这样的声音也很常见。现在,这样的声音又经常在“大数据”、“智能制造”的发言中听到。这些人讲的,其实是一些非常基本的原因。每次听到类似的声音,我都会琢磨:这些自以为聪明的人太轻视我们工人阶级了!做企业的人其实并不傻,这种大道理谁没听说过呢?其实,人迷惑的时候都是各种“道理”冲突的时候:有的大道理说“欲速则不达”,有的大道理叫“快刀斩乱麻”,你说该怎么办?
有用的道理,往往都不是放之四海而皆准的,而是针对人们犯下的倾向性错误。“大道理”要针对普遍性的倾向性错误才行。但大家都犯错的可能性往往并不大:除非大家共同遭遇到某种拐点,原来正确的道理变味了。
比如,我们现在强调数据分析的重要性,往往意味着人家不知道数据的重要性。但这怎么可能呢?数据重要的话说了几十年,人家怎么会不知道呢?所以,对听众来说,单单强调数据的重要性,往往是没有“信息量”的废话。真正的问题是:人家在现实中并没有体会到数据的重要性,你要给出一个办法,让人家真正觉得重要。数据分析为什么难以奏效呢?本质问题还是干扰因素太多、随机性太强,很难分析出来。
比如,钢坯上的缺陷特别令人头疼,数据分析的困难度也很大。
导致缺陷的原因非常多:钢水的问题、辅材的问题、设备的问题、操作的问题、工艺的问题......更令人头疼的是:这些问题与钢种密切相、与用户的要求和下工序有关。进一步,设备的老化、人员的更替、新产品新工艺的开发、降成本的措施,会导致“原因”本身经常的变化。于是,缺陷产生成为一个“复杂的不确定性问题”。
对低成本和高质量的追求,会让问题变得更加复杂。质量要求高了,就要设法减低不确定因素。一般的做法是要求各方面的波动尽可能小。但这种做法是有代价的。除了需要增加控制手段、检测手段,另一个常见的代价是:标准越严格,超出标准的情况就越多;而超出标准之后的处理更是有代价的。所以,许多与成本相关的参数实际上是“卡边控制”:稍微超越一点,就会导致质量问题。这会导致问题更加复杂。复杂到一定程度,数据分析就困难多了。这时,你遇到的问题很可能是:分析结果似是而非——那些被企业中的技术人员肯定的结论,往往是人家早就知道;而那些被人家否定的结论,往往是因为你的数据分析不周密。
如果知道了这些问题,该如何给人家想办法呢?
如果想得出办法,那是本事;想不出办法、只强调数据分析的重要性,那就是废话。我想,研究工业大数据的人,应该以此为出发点研究问题,而不是把工厂的人想得太笨。