未来十年计算领域会有哪些变化?
作者介绍
Gordon Haff
他是一名技术传道者,资深首席产品市场经理,已在红帽工作了10多年。加红帽之前,是IT行业分析师,撰写了数百份研究报告,经常被《纽约时报》等引用,为客户提供产品和营销策略方面的建议。
新技术有多种表现形式。通常情况下,它们源于多年来基本直接、逐步的产品改进,比如推动过去几十年计算领域进步的CMOS工艺的不断缩小。虽然并非易事,但从较高层次的角度来看,这些进步相对可预测。
其他变革则较难预测。即使一项技术并非全新,也可能需要合适的条件和进展,才能在主流中蓬勃发展。服务器虚拟化和容器化就属于这一类。
未来会有怎样的发展呢?曾有人说,预测是困难的,尤其是对未来的预测。但以下是红帽一直密切关注的一些领域,您可能也应该对其保持关注。这并不是一个详尽无遗的列表,其中可能包括一些令人惊讶的内容,但它涵盖了早期阶段和即将到来的更为成熟的发展。前几项是贯穿计算的许多不同方面的宏观趋势。其他则更具体,涉及硬件和软件计算基础设施。
人工智能/机器学习(AI/ML)
首先,AI/ML应该出现在任何关于计算未来方向的列表中。无论是编码工具、自调整基础设施还是系统的改进可观察性,AI/ML显然是计算领域未来发展的关键部分。
更难预测的是,确切形式和应用程序的AI将提供引人注目的商业价值,其中许多在狭窄领域内非常有趣,可能在较长时间范围内基本足够。
迄今为止,AI的许多成功都依赖于对越来越大的深度神经网络(NN)进行训练(以权重和参数数量为度量标准),使用反向传播在越来越大的数据集上进行训练,并得到适用于线性代数操作的正确类型的快速硬件支持,尤其是图形处理单元(GPU)。大型语言模型(LLM)就是一个著名的、相对较新的例子。
尽管取得了许多明显的成功,但AI在与无约束的物理世界进行界面的更广泛系统方面遇到了困难,例如自动驾驶。与此同时,还存在与解释性、偏见甚至整体经济影响有关的监管和法律问题。一些专家还在思考,是否我们对机器学习直接关注之外的认知科学的许多领域有广泛的认识差距可能(或可能不)需要AI来处理许多类型的应用。
毫无疑问,我们将迎来一些惊喜。
自动化
在某种程度上,自动化属于一类应用,其中AI为其带来了更为复杂的能力。例如,最新的红帽Ansible Lightspeed与IBM Watsonx Code Assistant就是由Ansible自动化器、操作员和开发人员设计和使用的生成式AI服务的例子。
自动化变得越来越必要,因为硬件和软件堆栈变得越来越复杂。这是确定的。不太明显的是,提高的可观察性工具和利用更详细数据的AI驱动自动化工具在细节方面的作用。
至少,这将使我们思考一些问题,比如:在动态自动系统调整中,哪些方面将在提高IT基础设施效率方面取得最大成功?自动化环境的范围是什么?我们准备为自动化提供多少自治权,以及哪些断路器和备用方案被认为是最佳实践?
随着时间的推移,我们在诸如CI/CD流水线等过程中减少了人工干预,但我们是在与增加的自动化一起演进的最佳实践的背景下这样做的。
安全性
安全性是一个广泛而深刻的话题,同时也是整个行业深感关切的问题之一。它涵盖了零信任、软件供应链、数字主权,以及是的,人工智能——既作为一种防御工具,又作为一种攻击武器。在这其中,有一个特定的主题值得特别强调。
加密计算是一项安全技术,用于保护正在处理的数据,即在处理数据时它是受到保护的。这与传统的加密技术形成对比,传统加密技术主要保护数据在静止状态时(即存储时)和在传输时(通过网络传输时)。
加密计算通过使用各种技术在受保护的环境中隔离数据,例如可信执行环境(TEE)或安全飞地。这在运行敏感工作负载时变得尤为重要,特别是在无法完全控制的环境中,比如在公共云中。尽管这是相对较新的技术,但它与整体趋势一致,即增加而不是减少安全控制。
RISC-V
虽然有一些开放的硬件设计例子,例如开放计算项目(Open Compute Project),但很难证明已经存在成功的开放处理器与服务器硬件相关的实例。
然而,主要的硅供应商和云服务提供商正在探索并采用RISC-V免费许可和开放处理器指令集架构(ISA)。RISC-V采用了与以往的开放处理器努力不同的方法。首先,它从一开始就是开源的,并没有与任何单一供应商绑定。其次,它被设计为可扩展且与实现无关。它允许在FPGA上实现新嵌入式技术,并支持微控制器、微处理器和专用数据处理单元(DPU)的制造。
在服务器领域,它的影响力还相对初步,但一直在增长。该架构还经历了大量的标准化工作,以在灵活性扩展和可能带来的碎片化之间取得平衡。RISC-V配置文件是RISC-V ISA的一组标准化子集。它们的设计旨在确保硬件实施者和软件开发者可以与围绕一组扩展构建的接口相交,具有设计用于支持定义良好的系统和应用程序类别的有界灵活性。
平台软件
也许最引人注目的问题之一是在服务器基础设施软件堆栈的较低层次上会发生什么——大致是单个共享内存服务器上的操作系统以及协调连接在网络上的许多这些服务器的工作负载的软件。
最容易开始的可能是,在未来十年内基本方式不太可能发生根本性的改变。Linux已经存在了30多年;Unix已经存在了50多年,许多基本概念可以追溯到大约十年前的Multics。
在计算机行业来说,这是很长的时间。但这也说明了大多数现代操作系统采取的基本方法的整体稳健性和适应性——以及在需要变更时演变Linux的能力。这种适应将继续通过利用减少开销,通过选择性地将工作负载卸载到FPGA和其他设备(如边缘服务器)来实现。还有减少性能关键应用程序的转换开销的机会;Unikernel Linux项目——这是波士顿大学Red Hat Collaboratory的教授、博士生和工程师共同努力的成果——展示了此类优化可能走向的一个方向。
更具推测性的是计算资源集合可能采用的形式以及它们将如何被管理。在过去的几十年里,这些资源主要采用了大量的x86服务器。一些专门的硬件用于网络、存储和其他功能,但CMOS工艺的缩小意味着在大多数情况下,等待下一代x86比购买一些未经验证的专业设计更容易、更便宜和更快。
然而,随着与通用目的的工艺缩小相关的性能增益减缓——甚至在某些时候可能减缓——更有效地满足特定工作负载类型需求的专门硬件开始变得更有吸引力。使用GPU进行机器学习工作负载可能是最明显的例子之一,但不是唯一的例子。
挑战在于开发人员的数量或技能主要没有增加。更好的开发工具在一定程度上可以提供帮助,但将更专业和更多样化的硬件的复杂性抽象掉也将变得更加重要。
这会是什么样子?一个新的抽象/虚拟化层?Kubernetes的演变,以更好地理解硬件和云之间的差异、组件之间的关系以及如何智能地将相对通用的代码与最合适的硬件或云进行匹配?还是我们会看到一些引入全新概念的其他东西?
总结
关于这些预测,我们可以说它们可能是好坏参半的。一些有前途的技术可能会逐渐式微,而其他技术则将在其后引发重大且通常出人意料的变革。在我们最不期待的时刻和地点,可能会有一些全新的事物突如其来。
——转载自红帽微信公众号2023年12月5日发布文章