安全绳厂家
免费服务热线

Free service

hotline

010-00000000
安全绳厂家
热门搜索:
成功案例
当前位置:首页 > 成功案例

著名物理学家警告:人工智能几百年内或超越人类

发布时间:2022-06-06 16:12:24 阅读: 来源:安全绳厂家
著名物理学家警告:人工智能几百年内或超越人类

天文学家马丁里斯爵士(LordMartinRees)认为,人工智能可能会在几百年内超越人类,从而开启了由电子智能生命主宰的漫长岁月。此外,他还认为这类智能生命可能已经存在于宇宙中的其他地方。英国皇家天文学家、剑桥大学宇宙学与天体物理学荣誉教授马丁里斯爵士认为,在几百年内,机器可能会超越人类,从而开启机器统治时代的新纪元。他还警告说,尽管我们肯定会在未来的几十年里发现更多关于生物生命起源的信息,但我们也应该意识到,外星智能可能是电子生命。里斯爵士说:只是因为宇宙其他地方没有生命,并不意味着没有智慧生命。我的猜测是,如果我们真的探测到外星智能,那将和我们完全不同。它们可能是某种电子实体。里斯爵士认为,在本世纪的全球范围内,会出现全球衰退的严重风险,理由是滥用技术、生物恐怖主义、人口增长和越来越多的连接问题,这些问题使人类比以往任何时候都更加脆弱。虽然我们可能因为人类活动而处于最危险的境地,但机器超越我们的能力可能是决定宇宙生命如何起源的决定性因素。他解释说:如果我们展望未来,那么很有可能在未来的几个世纪里,机器将会被过度使用,它们将会在未来数十亿年的时间里超越我们。换句话说,有机智能所占据的时间只是早期生命和机器漫长时代的一小部分。与人类生命中微妙而具体的需求相比,电子智能生命非常适合太空旅行,并且能够抵御许多可能灭绝人类的全球威胁。里斯说:我们很可能会被固定在这个世界上。我们将能够对太空进行更深入的探索,但我们对太阳系以外的世界的探索将是后人时代的事情。对于凡人的思想和身体来说,旅途的时间实在太漫长了。然而,如果你是永生不死的,那么这些距离就远没有那么吓人了。这段旅程将由机器人完成,而不是我们。并非只有里斯爵士这样想,许多著名的思想家,比如斯蒂芬霍金(StephenHawking)都认为,人工智能有可能毁灭人类文明。其他一些人,比如国际人工智能促进会(AAAI)主席SubbaraoKambhampati,也将AI被黑客袭击视为人类面临的最大生存威胁之一。然而,还有许多人不同意这些观点,甚至连霍金都指出人工智能带来的潜在好处。当我们训练和教育AI时,以我们自己的形象塑造它们时,我们会让它们有能力形成情感,这可能会阻止它们想要伤害我们。有证据表明,奇点可能并非单一时刻,而是一个已经发生的渐进过程这意味着我们已经在适应人工智能。但是,如果里斯的预测是正确的,而人类正处于自我毁灭的轨道上呢?如果我们彻底毁灭了自己,而人工智能已经足够先进,能够在没有我们的情况下继续生存下去,那么他的预言就可能成真:生物生命可能只是历史长河中的过客,电子智能生命将会主宰整个宇宙,而不仅仅是因为人工智能已经改变了人类。从根本上说,电子生命是独一无二的,适合在整个宇宙中生存和茁壮成长,这种想法并非牵强附会。问题是,我们能不能和它一起生存下去?

快闪H5模板
摇一摇H5模板