过去几年,人工智能(AI)以惊人的速度发展。一些科学家现在正在寻求人工超级智能(ASI)的发展——一种不仅超越人类智能,而且不受人类学习速度限制的人工智能形式。

人工智能可能是我们未能与外星文明取得联系的罪魁祸首

但如果这个里程碑不仅仅是一项了不起的成就呢?如果它也代表了所有文明发展的一个巨大瓶颈,一个如此具有挑战性的瓶颈,以至于阻碍了它们的长期生存,该怎么办?

这个想法是我最近在《宇航学报》上发表的一篇研究论文的核心。人工智能是否会成为宇宙的“大过滤器”——一个难以克服的门槛,以至于阻止大多数生命进化成太空文明?

这个概念或许可以解释为什么搜寻外星智慧生物(SETI)尚未发现银河系其他地方先进技术文明的特征。

大过滤器假说最终是费米悖论提出的解决方案。这就提出了一个问题,为什么在一个广阔而古老、足以容纳数十亿个潜在宜居行星的宇宙中,我们没有发现任何外星文明的迹象。该假设表明,文明的进化时间表中存在难以克服的障碍,阻止它们发展成为太空实体。

我相信ASI的出现可以成为这样一个过滤器。人工智能的快速发展可能会导致ASI,它可能与文明发展的关键阶段相交——从单行星物种向多行星物种的转变。

这就是许多文明可能会陷入困境的地方,人工智能的进步速度远远快于我们控制它或可持续探索和居住太阳系的能力。

人工智能(尤其是ASI)的挑战在于其自主性、自我放大性和改进性。它具有增强自身能力的潜力,其速度超过了我们在没有人工智能的情况下的进化时间表。

出现严重错误的可能性是巨大的,导致生物文明和人工智能文明在有机会成为多行星之前就崩溃。例如,如果各国越来越依赖并放弃权力给相互竞争的自主人工智能系统,那么军事能力就可能被用来以前所未有的规模进行杀戮和破坏。这可能会导致我们整个文明的毁灭,包括人工智能系统本身。

在这种情况下,我估计科技文明的典型寿命可能不到100年。这大约是从能够在恒星之间接收和广播信号(1960年)到估计在地球上出现ASI(2040年)之间的时间。与数十亿年的宇宙时间尺度相比,这个时间短得惊人。

这一估计,当插入德雷克方程的乐观版本时——该方程试图估计银河系中活跃的、可交流的外星文明的数量——表明,在任何给定时间,那里只有少数智慧文明。此外,像我们一样,它们相对温和的技术活动可能使它们很难被发现。

叫醒服务

这项研究不仅仅是一个潜在厄运的警示故事。它敲响了人类的警钟,要求人类建立强有力的监管框架来指导人工智能(包括军事系统)的发展。

这不仅仅是为了防止人工智能在地球上被恶意使用;它还涉及确保人工智能的进化与我们物种的长期生存保持一致。这表明我们需要投入更多的资源来尽快建立一个多行星社会——这一目标自阿波罗计划的鼎盛时期以来一直处于休眠状态,但最近因私营公司的进步而重新点燃。

正如历史学家尤瓦尔·诺亚·赫拉利(YuvalNoahHarari)指出的那样,历史上没有任何东西能让我们为将无意识、超级智能实体引入地球所带来的影响做好准备。最近,人工智能自主决策的影响导致该领域的知名领导人呼吁暂停人工智能的发展,直到引入负责任的控制和监管形式。

但即使每个国家都同意遵守严格的规则和监管,流氓组织也很难被遏制。

自主人工智能在军事防御系统中的集成必须成为特别值得关注的领域。已经有证据表明,人类将自愿放弃重要的权力给能力日益增强的系统,因为它们可以在没有人为干预的情况下更快、更有效地执行有用的任务。因此,鉴于人工智能提供的战略优势,各国政府不愿意在这一领域进行监管,正如最近在加沙所展示的那样。

这意味着我们已经危险地接近自主武器超越道德界限并规避国际法的悬崖。在这样的世界中,为了获得战术优势而将权力交给人工智能系统可能会无意中引发一系列迅速升级、极具破坏性的事件。一眨眼的功夫,我们星球的集体智慧就可能被消灭。

人类正处于其技术轨迹的关键时刻。我们现在的行动可以决定我们是否成为一个持久的星际文明,或者屈服于我们自己的创造物带来的挑战。

使用SETI作为我们审视未来发展的镜头,为关于人工智能未来的讨论增加了一个新的维度。我们所有人都有责任确保,当我们伸手摘星时,我们这样做不是为了其他文明的警示,而是作为希望的灯塔——一个学会与人工智能一起繁荣发展的物种。