soword科技言
永久公益免费API接口
提供永久免费的API接口,查看更多API接口,如果您有其他免费API资源,请联系我们,造福人类。
提供商务开发:小程序,系统,APP
定制开发,免费评估,免费咨询,价格便宜,售后保障,前往开发服务中心联系开发客服中心
真实世界中的人工智能芯片:互操作性、约束、成本、能效和模型

如何在不分散自己以跟上每一个的同时,最大限度地利用层出不穷的新兴定制硅硬件阵列?

如果我们给这个问题贴上价格标签的话,它将在数十亿美元的范围内。这就是它所涉及的不同市场的综合估值。随着人工智能应用程序的爆炸式增长,支持它们的专用硬件也在爆炸式增长。

对于我们来说,对所谓的确定了AI首席执行官和创始人,它走得更深。我们接着讨论了人工智能中硬件和模型之间的相互作用。

在建立确定性人工智能之前,Sparks是https://amplab.cs.berkeley.edu/“target=”\u blank“rel=”noopener noreferrer nofollow“data component=”externalLink“>加州大学伯克利分校的AmpLab。他专注于用于大规模机器学习的分布式系统,在这里他有机会与OctoML

TVM的目标与ONNX类似:将深度学习模型编译成他们所称的最小可部署模块,并针对不同的目标硬件自动优化这些模型。

Sparks指出,TVM是一个相对较新的项目,但它背后有一个相当强大的开源社区。他接着补充说,许多人希望看到TVM成为一种标准:“在Nvidia中没有被点名的硬件供应商可能希望更开放,希望有一种进入市场的方式。他们正在寻找一种狭义的接口来实现。”

在确定ONNX和TVM之间的差异方面存在细微差别,我们遵从与Sparks的对话。总而言之,TVM的级别比ONNX低一点,Sparks说,并且有一些与之相关的权衡。他认为TVM有可能更具普遍性。

然而,Sparks指出,ONNX和TVM都是早期的,随着时间的推移,他们会互相学习。对于Sparks来说,它们不是直接的竞争对手,只是解决类似问题的两种方法。

AI约束、成本和能效

不管是ONNX还是TVM,处理这个互操作层不应该是数据科学家和机器学习工程师必须做的事情。Sparks提倡在模型开发的各个阶段之间分离关注点——这与来自OpenAI的工作,根据这项工作,过去几年的培训成本比两年前增加了30万倍。作为最近的BERTResNet-50,作为这种方法的好例子。然而,他也提出了一个警告:这并不总是有效的。当人们正在训练的数据的形式与可用的完全不同时,就变得棘手了。

人工智能的混合方法,将知识注入机器学习模型,可能是将培训成本降至最低的最佳方法,但可能还有另一种方法。无论我们称之为https://www.zdnet.com/article/the-next-decade-in-ai-gary-marcus-four-steps-towards-robust-artificial-intelligence.文章/“target=”\u blank“>健壮的AI,混合人工智能https://knowablemagazine.org/article/technology/2020/what-is-neurosymbolic-ai“target=”\u blank“rel=”noopener noreferrer nofollow“data component=”externalLink“>神经符号人工智能,或其他名称,在机器学习模型中注入知识会有帮助吗?Sparks的回答是肯定的:

“在NLP或vision这样的‘商品’用例中,有人们一致同意的基准和标准数据集。每个人都知道问题是什么,图像分类或目标检测或语言翻译。但是,当你开始更加专业化时,我们所看到的一些最大的提升就是让领域专家灌输他们的知识。”

Sparks以物理现象为例。假设你建立了一个有100个参数的前馈神经网络,让它预测一个飞行物体在一秒钟内的位置。如果有足够的例子,系统可能会收敛到一个相当好的近似感兴趣的函数,并将以较高的精度进行预测:

“但是如果你向应用程序注入更多的物理世界知识,数据量会下降,精度会下降往上看,我们将看到一些引力常数开始出现,可能是网络的一个特征或特征的一些组合。

神经网络很棒。它们是超级强大的函数近似。但是如果我告诉计算机更多一点关于这个函数是什么的话,希望我能为每个人节省几百万美元的计算费用,得到更准确地代表世界的模型。放弃这种想法是不负责任的,离开隐形与1000万美元的资金