十年前,我写了一篇文章,回顾了1998年至2008年期间互联网的发展。又过了十年,这是一个很好的时机,再花点时间思考一下哪些是活跃的,哪些是过时的,哪些是在互联网变革的另一个十年中将被遗忘的。
任何一个技术的进化往往会出现意想不到的迂回转折。在某些转折点简单抽象会由复杂修饰所替代,而其他时候戏剧性的突破会暴露技术的核心概念,同时去除多余的东西。互联网的发展看起来也不例外,它有着与这些意想不到的迂回转折相同的形式。关于互联网技术这过去的十年,改变了什么,又保留了什么,这似乎是一个复杂的历程。
现在的互联网看起来大致与十年前的互联网类似。很多互联网的基础设施顽强地阻止了变革的发生。我们仍然处于互联网转换为IPv6的进程之中,同十年前一样。我们仍然尽力提升互联网的适应性来对抗各类进攻,同十年前一样。我们仍然努力提供明确的网络中服务质量,同十年前一样。1990年代到2000初技术变革的快速步伐似乎已经失去了动力,过去十年互联网的主导活动似乎是整合,而不是持续的技术演变。或许这种对变革阻力的提升是因为随着网络大小的增长,它的惯性质量也增加了。我们常常互相引用Metcalf定律,定律说的是:网络增长量与用户数量的平方成正比。相关观察发现一个网络对变革的固有阻力,或者惯性质量,也是与用户数量的平方直接相关。或许作为一个大体观察,所有大型松散耦合分布式系统都有强烈地抗变革能力。这些系统最多对市场压力的各类形式做出了反应,但是由于互联网整体系统如此庞大且多样化,这些市场压力在网络的不同部分以不同的形式表现出来。个体行为人在没有集中组织的指示或者约束下进行操作。产生变革,是因为一些足够多的个体行为人看到了变革中的机遇,或是察觉到了若不变革会带来的无法接受的风险。从互联网的结果看来,一些变革非常具有挑战性,而其他看起来则是自然且不可避免的进步。
但故事的另一面与绘画可能截然相反。在过去十年中,我们看到了互联网的另一场深刻革命,因为它以前所未有的速度采用了基于无线的基础设施和丰富的服务组合。我们看到内容和内容提供方面的革命不仅改变了互联网,而且作为附带损害,互联网似乎正在摧毁传统的报纸和广播电视领域。社交媒体几乎取代了电话的社会角色和写信的做法。我们已经看到了以“云”为伪装的旧式中央大型机服务器的复兴和兴起,以及互联网设备再利用,常见的云托管服务在许多方面模仿了过去显示终端的功能 。所有这些都是互联网的基础变革,所有这些都发生在过去十年!
故事所涉及范围比较广,所以我把故事设定为一个更大的主题,然后逐步构建故事,而不是提供一堆杂乱无章的观点,讲述过去10年中互联网发生的各种变化和发展。我会用一个标准的协议堆栈模型作为指导模板,我们从底层的传输媒介层(物理层)开始,然后到传输层(IP协议层),后面是应用层和服务层,最后以互联网商业对过去10年开发的促进作用作为结尾。
在 IP 层之下
网络媒体发生了什么变化?
光传输系统在过去 10 年经历了持续的改变。在 10 年多一点之前产品级光传输系统使用简单的开-关(on-off)键控来编码信号到光传输通道中。这个速度在这一代的光传输系统上的增长依赖于可控硅系统的发展以及激光驱动芯片。关于波长时分复用的介绍在 1990 年代让光传输电缆基础设施的搬运者(传播介质)极大的增加了搬运能力。最近 10 年光传输系统的演化在偏振和相位调制领域有效的提升了每波特信号的位数。通常可以支持的 100Gbps 的光传输通道,并且我们正寻找进一步改进使其可以超过 200Gbps。我们预期系统会在不久的未来可以达到 400Gbps,使用各种更快的基波速率和更高的相位幅度调制组合现在可以在敢于的清晰的设想不久后的光传输服务达到 1Tbps。
无线系统在总体上也是一个类似的演化。在信号处理的基本实现里,类似于光传输系统的变化,使用相位调制提升无线承载的数据速率。MIMO(多输入多输出) 技术的使用,外加更高的传输频率的使用使得在未来的 5G 技术部署中的移动系统速度达到 1Gbps。
在最初的基本原理和那明亮的黄色同轴电缆一起消失之后,光传输速率持续增长,在传输系统中,以太网包的帧结构仍然存在。奇怪的是,以太网定义的最小和最大包大小为64和1500字节仍然存在。在过去的十年中,由于传输速度的提高,出现了不可避免的结果,每秒的数据包数量增加了100倍,这是由于传输速度从2.5 Gbps增加到400 Gbps。因此,从硅基开关中要求更高的包处理速率。但在过去的十年中,一个非常重要的因子并没有改变,即处理器的时钟速度和内存的周期时间,这一点根本没有改变。到目前为止,人们的应对策略是越来越多地依赖于高速数字交换应用程序的并行性,而现在,多核处理器和高度并行的内存系统被用来实现在单线程处理模型中不可能实现的性能。
在2018年,我们似乎接近于实现1 Tbps的光传输系统,在无线传输系统中达到20 Gbps。这些传输模型能够传输多远和多快来支持更高的通道速度仍是一个悬而未决的问题。
IP层
在过去的十年中,网络中最引人注目的一个方面,它顽固地抵制各种形式的压力,包括一些严峻的现实,即我们仍然在运行一个本质上是IPv4的互联网。
在过去的十年中,我们已经耗尽了剩余的IPv4地址,而在世界的大部分地区,IPv4互联网正在面临某种形式的IP短缺。我们从未怀疑过,互联网将会面临一个最基本的支柱——标记互联设备唯一性的地址——的耗尽,显然是耸耸肩,继续愉快地继续下去。但是,出乎意料的是,这正是所发生的事情。
今天,我们估计大约有34亿人是互联网的常客,而且有大约200亿的设备连接在互联网上。我们已经使用了大约30亿个唯一的IPv4地址来实现这一点。没有人认为我们可以实现这一惊人的壮举,但它确实是在悄悄的发生。
早在1900年代,我们就认为IP地址耗尽的前景将推动互联网使用IPv6。 这是后续IP协议,IP地址的位宽增加了四倍。 通过将IP地址池增加到一些非常大量的唯一地址(340个十亿地址,或3.4 x 1038),我们再也不必面对网络地址耗尽。 但这不是一个简单的过渡。 此协议转换中没有向后兼容性,因此必须更改所有内容。 每个设备,每个路由器甚至每个应用程序都需要更改以支持IPv6。 我们不是在互联网上执行全面的协议变更,而是改变基础设施的每个部分以支持IPv6来改变了互联网的基本架构。 奇怪的是,看起来这是更便宜的选择!
通过在网络边缘几乎无处不在的网络地址转换器(NAT)部署,我们已经将网络从对等网络转变为客户端/服务器网络。 在今天的客户端/服务器中,Internet客户端可以与服务器通信,服务器可以与这些连接的客户端进行通信,但就是这样。 客户端无法直接与其他客户端通信,服务器需要等待客户端发起对话才能与客户端通信。 客户端在与服务器通信时“借用”端点地址,并释放此地址以供其他客户端闲置时使用。 毕竟,端点地址仅对客户端有用,以便与服务器通信。 结果是,我们已经设法将大约200亿台设备塞进一个只部署了30亿个公共地址槽的互联网中。 我们已经实现了这一目标,并囊括了可以描述为IP地址分时的内容。
不错,但是 IPv6 呢?我们还需要它吗?如果是这样,那么接下来我们要度过这漫长的过渡期吗?十年过去了,这些问题的答案仍不明确。往好了想想,IPv6 现在比十年前多得多了。与2008年相比,现今服务提供商部署了更多的 IPv6 。我们看到当 IPv6 被服务提供商部署到网路中具备 IPv6 的设备能立即使用。在2018年似乎五分之一的互联网用户(现在估计是地球上一半的人)能够使用优先于 IPv6 的互联网,其中的大部分发生于近十年。然而,坏处是必须提出这样一个问题:关于 IPv6 ,另外五分之四的上网的人怎么了?据悉一些互联网服务提供商更愿意将有限的运营预算投在提升用户体验方面上,就像增加网络容量、取消数据上限和获取更多的网上内容。上述网络服务提供商仍旧将部署 IPv6 看做为可延缓的举措。
貌似现在我们还能看到关于 IPv6 的混杂局面。一些服务提供商只是看出他们自己 IPv4 地址稀缺的问题,这些服务提供商将 IPv6 当做进一步扩大网络的一项必要决策。其他服务提供商更愿意推迟到未来某一天。
路由
虽然我们正在研究过去十年里基本没有改变的事物,但我们需要说说路由系统。尽管10年前即将发生的对边界网关协议(BGP)缩减死亡的可怕预测,但BGP依然坚定地继续为整个互联网提供路由支持。是的,BGP与以往一样处在不安全地位,是的,持续不断的胖手指之流以及不太常见但更多关注恶意路由劫持将继续困扰我们的路由系统,但2008年使用的路由技术与我们在当今的互联网中所使用的技术是一样的。
IPv4路由表的规模在过去十年中增长了两倍,从2008年的25万条增加到今天的超过75万条。IPv6路由的故事更加引人注目,从1,100个条目增加到5.2万个条目。然而,BGP依然悄悄地继续有效并高效地工作。谁会想到,一个最初设计用于应付几百个网络宣称有几千条路由的协议仍然可以在跨越一百万个路由条目和十万个网络的路由空间中有效运行!
同样,我们对内部路由协议的运作没有做出任何重大改动。较大型的网络仍然使用OPSF或ISIS,具体取决于它们的实际境况,而较小的网络可能选择一些诸如RIPv2或甚至EIGRP等的距离矢量协议。IETF关于最新路由协议LISP和BABEL的工作似乎对整个互联网缺乏有效牵引力,虽然它们在路由管理方面都具有有趣的特性,但它们都没有足够的已知优势来克服常规的网络设计和运维中出现的可观的惯性。同样,这看起来像惯性物质正在施加影响以抵抗网络变化的另一个示例。
网络运维
说起网络运维,我们看到一些激动人心的改变正在发生,不过这是一个相对保守的区域,新的网络管理工具和实践的使用需要花更多的时间。
四分之一个世纪之前,Internet 主要使用简单网络管理协议(SNMP),尽管它面临很多问题,比如安全缺陷、低效、使用不友好的 ASN.1 协议,以及容易遭受 DDOS 攻击等,可是它仍旧是被广泛使用的协议。不过随着人们用 SNMP 进行运维的尝试表明,SNMP 仅仅是一个网络监控协议,而不是一个网络配置协议。
最近,Netconf 和 YANG 正在努力尝试推动交换机的配置管理进入一个更实用的阶段,以替换目前以 expect 脚本作为命令行接口的情况。与此同时,我们也看到一些编排工具也进入了网络运维领域,比如 Ansible、Chef、NAPALM 和 SALT 等,它们可以对成千上万的独立模块进行管理任务的编排工作。这些网络运维管理工具正在朝着自动化网络管理的方向发展,但仍旧还有很多路要走。
在我们似乎已推进了自动控制系统的状态以实现无人驾驶的自动驾驶的同一时期,全自动网络管理的任务似乎已经远远达不到预期的终点。当然,为自适应自动控制系统提供网络基础设施和可用资源是必要的,并允许控制系统监控网络以及修改网络组件的运行参数,以不断满足网络的服务水平目标? 驾驶网络的无人驾驶汽车在哪里呢? 也许接下来的十年可能会让我们见到它。
移动互联网
我们在 Internet 协议模型中移动一个层并查看端到端传输层的演化之前,我们可能需要讨论连接到 Internet 设备的发展。
多年来,互联网一直是台式个人电脑的领域,笔记本电脑设备满足了人们对更便携设备的需求。当时,手机还只是一部电话,他们在数据世界的早期尝试并不令人印象深刻。
苹果公司2007年发布的 iPhone 是一款革命性的设备。它拥有一个充满活力的彩色触摸屏,只有四个键,一个功能齐全的操作系统,有WiFi和蜂窝无线网络接口,有一个强大的处理器和内存,它进入消费者市场可能是这十年的最重要事件。苹果早期的领先地位很快被 Windows 和诺基亚以自己的产品赶超。谷歌的地位更像是一个活跃的破坏者,它使用 Android 平台及其相关应用生态系统的开放许可框架,授权给一批手机组装商。Android 被三星、LG、HTC、华为、索尼和谷歌等公司采用。如今,几乎80%的移动平台使用 Android ,约17%的平台使用苹果的 iOS 。
对于人类互联网来说,移动市场现在是互联网定义的收入市场。如今,有线网络的利润空间和机会空间几乎为零,即便是移动数据环境的利润率不断下降,也给占主导地位的接入提供商行业带来了一丝渺茫的希望。
从本质上讲,公共互联网现在是移动设备上的应用平台。
端到端传输层
是时候在协议堆上提升一个层次,回顾一下点对点传输协议以及过去十年发生的变化。
端到端传输是因特网的革命性概念,而 TCP 协议是这个概念的核心。其他许多协议要求更低阶层的网络协议堆提供一个稳定的流传输接口。这需要网络可以创造传输的稳定,提供数据的完整性,控制数据流,并且在数据丢失的时候能够修补。然而 TCP 省掉了所有这一切,只是假设网络提供了一个不可靠的数据报传输服务并且保证了传输协议有数据完整性和流控制。
在 TCP 的世界中,过去十年里似乎没有太大的变化。我们已经看到 TCP 的控制速率增加和快速降低方面的一些进一步细微改进,但没有任何改动触及这个协议的基本行为。TCP 倾向于使用分组丢失作为拥塞信号并且在一些较低速率和该丢失触发速率之间调整其速率。
或者最起码这是直到最近才出现的情况。随着谷歌的 BBR 和 QUIC 的首次亮相,情况有望改变,并以一种非常基础的方式发生变化。
瓶颈带宽和往返时间控制算法(简称BBR)是 TCP 流控制协议的变体,其以与其他 TCP 协议非常不同的模式操作。BBR 试图保持在恰好位于发送方和接收方之间的端到端路径的延迟带宽积的流速率。这样做,试图避免在网络中缓冲数据的累积(当发送速率超过路径容量时),并且还试图避免在网络中留下空闲时间(此时发送速率小于路径容量)。它的副作用是 BBR 试图避免在发生基于拥塞的丢失时网络缓冲的崩溃。BBR 通过有线和无线网络传输系统实现了显着的效率提升。
谷歌近期提供的第二个产品也代表了我们在使用传输协议上的重大转变。QUIC 协议看起来跟 UDP 协议很像,从网络的角度来看,它只是一个 UDP 数据包流。但在这种情况下,外在是不可信的。这些 UDP 数据包的内部有效载荷包含更传统的 TCP 流控制结构和 TCP 流的有效载荷。但是,QUIC 加密了其 UDP 有效负载,因此整个内部 TCP 控制对网络而言是完全隐藏的。互联网传输的僵化是因为网络中间件的无可替代的角色,网络中间件是用于丢弃它无法识别的数据包的。诸如 QUIC 之类的方法允许应用程序打破这种机制,并将端到端流管理恢复为端到端函数,并且无需任何形式的网络中间件检验或操纵。我称这个新发展可能是在整个十年中传输协议层面最重要的变革之举。
应用层
让我们继续深入协议栈,并从网络上运行的应用程序和服务的角度来审视Internet。
隐私和加密
正如我们在研究端到端传输协议的发展时所指出的那样,QUIC负载的加密不仅仅是为了防止网络中间件干扰TCP控制状态,尽管它确实非常成功地实现了这一点。加密适用于整个有效载荷,它指出了过去十年中另一个重大发展。我们目前正警惕各种形式的基于网络的用于窃听用户和服务的机制。Edward Snowden在2013年发布的文件中描绘了一个非常活跃的美国政府窃听计划,该计划利用广泛使用的通信拦截源来构建用户行为画像以及个人用户的推理画像。在许多方面,这种收集此类配置文件的努力与谷歌和Facebook等以广告资助的服务(或多或少地)多年来一直公开所做的差别不大,但可能本质上的不同是是否知情以及默认准许。在广告商的场景下,该信息旨在提高用户画像的准确性,从而增加用户对潜在广告商的价值。政府机构的动机包含各种形式的解释,其更加开放,但并非所有这些解释都是处于善意的。
对这种泄露材料影响的一种技术反应是公开推动在网络的所有部分采用端到端加密。由此产生的结果是努力让所有人都能使用健壮的加密技术,而不仅仅成为那些支付得起溢价的人才能使用的高级功能。”Let 's Encrypt initiative“在发布X.509域名证书时非常成功,这个证书无需付出任何代价,结果是,所有的网络服务运营商,不管它们的规模大小或相对财富如何,都可以为它们的web服务器提供TLS形式的加密会话。
对网络和基于网络的窃听者,隐藏用户通信的努力远远超出了QUIC和TLS会话协议。域名系统也是关于用户正在做什么的丰富信息来源,并且在许多地方被用于实施内容限制。最近试图移动和清理DNS过度啰嗦的性质,使用查询名称最小化防止不必要的数据泄漏,同时开发DNS/TLS和DNS / HTTPS来保护存根解析器和其递归服务器之间的网络路径。这是目前正在进行的一项工作,还需要一些时间来确定这项工作的结果是否会在DNS环境中被广泛采用。
我们正在一个日趋执狂的环境中运行我们的应用程序。应用程序不一定信任它们所运行的平台,同时我们看到应用程序努力将其活动对底层平台隐藏。应用程序不信任网络,我们看到越来越多地使用端到端加密来避免其活动被网络窃听。在加密会话建立中使用身份认证还可以降低应用程序客户端触发误定向到伪装服务器的漏洞。
内容的蓬勃发展
在过去的十年中协议栈进一步升级到内容和应用环境,我们也见证了一些革命性的变化。
在一小段时间内,互联网的内容和传输活动主要存在于相互独立的商业领域,相互依存。传输的任务是将用户带到内容,这意味着运输对于内容来说是必不可少的。但同时,服务器端的服务器/服务器网络是无用的,所以内容对于运输来说是必不可少的。在一个重新崛起的庞然大物的企业世界中,这种相互依存的关系既令人担忧,又直接涉及到参与者,以及更大的公众利益。
内容产业在这两方面基本上是更有利可图的,并且在监管限制方面的限制程度要低得多。 在他们提供的服务中,没有任何服务义务的概念,甚至没有任何有效的价格控制形式。 许多内容服务提供商使用内部交叉资金,允许他们向公众提供免费服务,如免费电子邮件,免费内容托管,免费存储等,并通过第二个更加封闭的交易为这些服务提供资金,这些交易基本上是对最高出价广告客户消费者资料的出售。 所有这些都发生在任何重要的监管限制之外,这使得内容服务行业拥有可观的财富和相当大的商业自由度。
毫不奇怪,这个行业现在正在利用其能力和资本来消除其以前对通信部门的依赖。 我们现在看到内容数据网络(CDN)模型的迅速崛起,其中内容存储器正在用户旁边打开本地内容出口,而不是将用户带到各种内容存储库的因特网。 随着所有形式的数字服务进入CDN,并且由于CDN开设了与经济上有价值的消费者群体紧邻的网点,那么这在传统的互联网中扮演着什么角色呢? 鉴于较大内容经济体中的通信边缘化日益加剧,公共通信提供商的前景并不乐观。
在这些CDN中,我们还看到以云服务形式进入互联网的新服务模型兴起。我们的计算机不再是具有处理和计算资源的自包含系统,而是越来越像一个窗口,这个窗口中我们可以看到存储在公共服务器上的数据。云服务非常类似于本地设备作为是大型后台存储的本地缓存。在一个用户可能有多个设备的世界里,这个模型是有说服力的,因为无论使用哪个设备来访问数据,公共后台存储的视图都是不变的。这些云服务还使数据共享和协作工作更容易得到支持。云模型并不是创建了原始文档的一组副本,然后尝试将所有单独的编辑内容缝回一个公共的整体,而是通过简单地修改文档的访问权限来共享文档。文档只有一个副本,对文档的所有编辑和注释都是可用的。
网络攻击的演变
与此同时,当我们看到互联网内不断增加的网络容量时,我们看到了一组并行的公告,这些公告指出了拒绝服务攻击的总体容量中出现了新的记录。当前的峰值容量是大约1.7Tbps的恶意流量攻击。
攻击现在司空见惯。它们中的许多都极其简单,依靠的是一大堆潜在的僵尸设备,这些设备很容易被颠覆,并被用来协助攻击。这些攻击通常是攻击的简单形式,例如UDP反射攻击:一个简单的UDP查询就会生成大量的响应。查询的源地址被伪造为目标攻击受害者的地址,不需要做更多的工作。一个小的查询流就可以导致一种大规模的攻击。像SNMP、NTP、DNS和memcache这样的UDP协议在过去已经被使用过了,毫无疑问将再次被使用。
为什么我们不能解决这个问题?我们已经尝试了几十年,但是我们似乎无法在攻击发生之前做好准备。有关防止伪造来源地址的封包泄漏的建议(RFC 2827),已于二十年前的一九九八年发表。然而,大规模基于 udp 的伪造源地址攻击一直持续到今天。有已知漏洞的老旧电脑系统继续与互联网连接,并很容易转变成攻击机器人。
攻击的场景也变得更加不祥。此前被认为是“黑客”所为,但很快意识到这些恶意攻击的一个重要部分具有犯罪动机。从犯罪活动者到国家活动者的发展也是完全可以预见的,我们正在目睹这一网络战争舞台的升级,以各种形式对漏洞利用的投资被视为一套理想国家能力的一部分。
这里的一个主要问题似乎是,我们集体不愿对有效的防御或威慑作出任何重大投资。我们在互联网上使用的系统正在过度信任到了非理性轻信的程度。例如,用于保护基于 Web 事务的公钥认证系统多次被证明是不可信的,但这都是我们所信任的。个人数据不断遭到破坏和泄露,但我们似乎只想增加规则的数量和复杂性,而不是实际使用更好的工具来有效保护用户。
敌意攻击的大背景并没有变得更好。事实上,情况变得更糟了。如果任何企业有需要维护随时可用服务的业务,那么任何形式的内部准备都不足以抵御攻击。如今,只有少数平台能够提供有弹性的服务,即便如此,也不清楚它们能否经受住最极端的攻击。在网络中有一个持续背景级别的扫描和探测在运行,任何形式的可见漏洞都被无情地利用。人们可以把今天的互联网描述成一片有毒的荒原,偶尔还会有重兵把守的堡垒。能够找到他们服务的那些人在这些堡垒里从这些经常的恶意攻击中享受一定程度的缓解,而其所有他人被迫试着从最糟糕的有毒环境隐藏自己,同时意识到,他们完全可能被任何大规模的攻击所压倒。
令人警醒的是,现在世界上只有大约一半的人口是这个数字环境的一部分。一个更发人深省的想法是如今的许多控制系统都暴露在互联网上,如发电和配电、供水和道路交通控制系统。或许更令人担忧的是互联网在自动化系统中越来越多地使用,其中包括各种生命支持功能。面对持续和破坏性的攻击,这些系统大规模失效的后果是难以想象的。
由数十亿极其愚钝的事物所构成的互联网
让这种情况更令人沮丧的征兆是所谓的物联网。
在那些互联网预测比比皆是,政策制定者涌向未来的宏伟愿景的圈子中,我们经常听到这个“物联网”所代表的无限未来。这句话囊括了几十年来计算行业的变迁轨迹,计算以仅被国家能够负担的神秘工程部分,变迁到大型机、台式机笔、记本电脑、手持设备和现在的手腕式电脑。下一个风口在哪里?在物联网的愿景中,我们将把互联网扩展到人之外,并继续在世界各个方面使用数十亿此类蜂窝设备。
我们对已经连接到互联网的“事物”有什么了解?
它们中的有些不是很好。事实上,它们中的一些就是愚蠢透顶。这种愚蠢是有毒的,因为他们有时不适当的操作和安全模式会以潜在恶意的方式影响他人。毫无疑问,如果这些设备不断地被检查和管理,我们可能会发现异常行为的证据并加以纠正。但这些都是非托管设备,几乎都看不见。有网络摄像头的控制器,所谓的智能电视的“智能”薄,或者是控制从洗衣机到商品机车任何东西的控制器。没有人照看这些设备。
当我们想到物联网时,我们会想到气象站、网络摄像头、“智能”汽车、个人健康监测器等等组成的世界。但我们往往忘记的是,所有这些设备都是建立在其他人的软件层之上的,这些软件以尽可能低的价格组装进产品。你可能会不安地意识到,你刚刚安装的网络摄像头有一个安全模型,可以用一句话概括为:“根本没有安全可言”,它实际上可以让整个互联网看到你的房子。意识到你的电子钱包是运行在使用开源软件编译的设备上可能更加不安,这些开源软件主要来源不明,带着不能完全理解的安全模型,但似乎容易被强迫成为“是的,你随取所需”。
如果我们已经停止在代码中犯错,从现在开始,我们的软件将是完美的。但这是不可救药的理想主义。这是不可能发生的。软件不是完美的。它将继续存在漏洞。我们有个美好的想法:物联网正在成为一个质量至关重要的市场,消费者将选择更昂贵的产品,尽管它的功能行为与一种价格较低的产品相同,但价格低的产品没有经过严格的安全缺陷测试。但这也太天真了。
物联网将继续是一个市场,在这里,价格和质量之间的妥协将继续推动我们站在廉价而非安全的一边。有什么能阻止我们通过大量的、各种各样的由编程的、非托管的、带着很容易被利用内置漏洞的设备聚集来进一步污染我们的环境呢?我们能做些什么来让这个世界上的这些愚蠢的,廉价的有毒物质少一些愚蠢,少一些有毒的东西?到目前为止还没有找到这个问题的可行答案。
下一个十年
硅晶片行业接下来还会持续发展。确保将生产更多的芯片。未来几年会有更细的纳米线宽和翻倍的芯片堆叠技术。计算机强烈需要越来越强大的运算速度和处理更庞大复杂的计算任务保障。
同时,我们对互联网充满信心。可以高度肯定的是,互联网一直在发展以满足更高的定制化和个性化所需。
但是,我发现对互联网的安全性和信任保持乐观是极具挑战性的。过去十年中,我们在这方面取得的进展甚微,没有理由认为未来十年的情况会有所改变。 如果我们不能迎接挑战,那么,事件不容乐观,或者我们只能接受一个充斥着悲剧般愚蠢的事情的网络。
然而,除了这些粗略的设想之外,很难预测互联网将走向何方。技术并不遵循预先指定的路径(发展)。它是由消费市场的变幻莫测所驱动,并很容易被我们迅速地视为司空见惯的东西而厌倦,而这个充满激情的消费市场很容易被色彩鲜艳的闪亮新事物所吸引。
在未来的十年里,我们能从互联网上期待什么呢?能超过可以用自然语言交谈的袖珍电脑吗?能提供比沉浸式3D视频更好的质量吗?能把人类所有的书面作品都汇集到一个可搜索的数据库中,在短短几秒钟内就能回答我们的任何问题?
就我个人而言,我不知道从互联网上期待什么。但无论吸引我们注意力的是什么,我都很有信心它将会是五彩缤纷的,明亮的,闪亮的,完全出乎意料的!
—— 文章作者:杰夫•哈斯顿(Geoff Huston)
- 本文固定链接: https://zxbcw.cn/post/6050/
- 转载请注明:必须在正文中标注并保留原文链接
- QQ群: PHP高手阵营官方总群(344148542)
- QQ群: Yii2.0开发(304864863)