很多工业 4.0 方案都要依赖于在设备层进行的数据分析,尤其是在机械工程领域。控制系统及边缘设备中具备的可扩展的计算能力可以分配足够的资源来分析本地以及生产线上的数据。
但可以在云边缘合理地提供多少智能呢?如何有效地在云和边缘之间分配任务?
在下面的趋势访谈中,倍福 Josef Papenfort 博士与《Elektro Automation》杂志副主编 Andreas Gees 就这些前瞻性问题进行了深入探讨。
Q:支持将 AI 算法集成到本地应用(即控制系统或边缘设备)的理由是什么?它与基于云的解决方案相比有什么优势吗?数据安全又起着什么样的重要作用?
Josef Papenfort 博士:是否应该执行 AI 算法,很大程度上取决于可接受的等待时间和成本限额。AI 算法依赖于大数据,此时,重要的是将在训练过程最初仅需使用一次的数据,与在推理模式下预测性运行的训练网络中一直需要使用的数据区分开来。若要在云端中进行机器学习和推理,就必须具有足够高的数据传输速率。
对于基于云的系统,这样做的成本可能不菲,而且如果可用的网络带宽不足,这样做可能会导致功能受限。另一方面,在边缘设备上运行推理需要一次性投入硬件,然后才能通过本地网络高速共享数据。相反,学习过程可以在云端进行:数据只需上传一次,因为这个过程是有限的,不是连续的。当然,学习过程可能需要大量的计算资源,但这只是暂时的;在这种情况下,按现收现付模式计费的云资源就非常适用。
Q:控制系统往往需要硬实时系统,而 AI 算法不一定需要依赖实时性能。这两个不同的要求可以在本地层达成一致吗?
Josef Papenfort 博士:连接类型取决于通过 AI 算法实现或支持的应用。这类算法显然依赖于从实时进程接收到的数据,即从实时域移动到非实时域的数据流。问题的核心是非实时算法是否需要相应地干预实时进程。例如,如果将 AI 算法用来在预测性维护中测量零件的剩余使用寿命,则不需要这样做。一般来说,在这样的应用中,不需要直接干预实时进程。但是,在闭环优化方案中,AI 算法需要不断地将结果反馈给实时进程。
Q:哪些类型的应用最适合在本地运行 AI 算法?可能的计算性能极限在哪里?
Josef Papenfort 博士:这个问题目前还没有明确的答案,它取决于硬件部署,取决于边缘设备是否具备在合适的时间范围内处理深度神经网络计算的能力。
“如果使用基于 PC 的控制系统,可以根据具体的应用需求对硬件进行扩展。”
Q:您认为,是否有些应用场景(例如跨站点分析)只有在云端中运行才真正有意义?
Josef Papenfort 博士:同样,在这里,将学习阶段和推理模式区分开来也很重要。学习过程首先基于一组数据,如果给定的站点自身生成的机器学习数据不足,则可以将来自多个站点但执行相同进程的数据进行合并,构建一个合适的数据库,此时,云会提供一个合适的合并数据的方法。云还可以提供在规定的时间内启动学习过程所需的算力。正如我前面提到的,是否应该在云中进行推理取决于既定应用、等待时间和数据传输速率。