来源:时间: 2024-10-27
专门为机器学习创建的ASIC加快AI的发展,德州仪器TI神经网络应用的CPU、DSP
德州仪器TI传感器融合是20世纪90年代出现的一种理念。你要把它变成机器可以处理的通用的数据格式。如果你在军队里,你担心有人向你开枪。对于自动驾驶汽车而言,这就像面前有人推婴儿车。所有这些系统都需要非常高的带宽,并且都必须在其中内置安全措施。最重要的是,你必须保护数据,因为安全正在成为越来越大的问题。因此,你需要的是计算效率和编程效率。”这是今天的许多设计中所缺少的,因为太多的开发是由现成的零件搭建的。Cadence高级架构师以及深度学习小组总监Samer Hijazi说:“如果你优化网络、优化问题、最小化位数,并使用为卷积神经网络定制的硬件,那么你可以实现功率降低2~3倍的改进。效率来自软件算法和硬件IP。”尝试改变这个公式。开发了Tensor处理单元(TPU),这是专门为机器学习而创建的ASIC。为了加快AI的发展,谷歌在2015年开源了TensorFlow软件。这是进化的过程,没有人能确定未来十年AI将如何发展。部分是因为AI技术的使用案例正在逐渐被发现。在某个领域里有效的AI技术(如视觉处理)不一定适用于另一个领域(例如确定某种气味是危险的还是安全的,抑或是二者的组合),NetSpeed Systems营销和业务开发副总裁Anush Mohandass说:“我们在黑暗中摸索,我们知道如何做机器学习和人工智能,但却不知道它们真正的工作方式。目前的方法是使用大量拥有不同计算能力和不同种类的计算引擎——用于神经网络应用的CPU、DSP,你需要确定它是有效的。但这只是第一代AI。重点是计算能力和异构性。”随着问题的解决变得更有针对性,这有望改变。就像早期版本的物联网器件一样,没有人知道各类市场如何演变,因此系统公司投入了一切,并使用现有的芯片技术将产品推向市场。在智能手表的案例中,结果是电池充电后只能续航几个小时。随着针对这些特定应用的新芯片的开发,功耗和性能会实现平衡,方法是更有针对性的功能、本地处理与云处理之间更智能的分布、以及对于设计中的瓶颈的更深入的理解这三者的结合。ARM模型技术总监Bill Neifert说:“我们的挑战是找到未知的瓶颈和限制。但根据于工作负载,处理器与软件的交互方式不同,软件本质上是并行应用程序。因此,如果你正在考虑工作负载,如金融建模或天气图,它们强调基础系统的方式是不同的。你只能通过深入探索来理解。”