2014年,英国哲学家尼克·博斯特罗姆(Nick Bostrom)发表了《超级智能:路径、危险、策略》一书,探讨了人工智能(AI)发展可能带来的风险,尤其是超越人类智慧的“超级智能”可能对人类构成的威胁。
十年后,OpenAI的萨姆·奥尔特曼(Sam Altman)预言,人类距离实现超级智能仅有数千天。同时,OpenAI的联合创始人Ilya Sutskever已筹集了10亿美元,专注于发展“安全超级智能”。
在理解超级智能的概念时,我们可以借鉴美国计算机科学家Meredith Ringel Morris和她的谷歌团队提出的分类框架。这一框架将AI分为六个层级:无人工智能、新兴、有能力、专家、大师和超人,并区分了执行特定小任务的狭义系统与能处理广泛任务的通用系统。
例如,狭义AI系统像是深蓝国际象棋程序,这种程序在1997年击败了国际象棋世界冠军加里·卡斯帕罗夫(Garry Kasparov)。
而Alphafold系统则通过机器学习预测蛋白质结构,显示了超人的能力。相对的,通用AI系统如ChatGPT虽然在处理语言任务方面展现出潜力,但仍处于“新兴”阶段。
尽管如此,目前AI的智能程度如何评定仍有争议。例如,DALL-E图像生成系统能创造出大多数人类无法想象的图像,但同时也会产生错误。GPT-4被视为展示了“通用人工智能的火花”,而OpenAI的最新模型o1则被认为在复杂推理上与人类专家相媲美。
然而,苹果的研究显示这些模型在处理真正的数学推理问题时仍面临挑战,这说明超级智能的到来可能并不像某些人预期的那么近。
进一步的AI发展可能依赖于深度学习技术,这种技术通过分析庞大的数据集来发现模式。这一技术的成功实例包括今年诺贝尔物理学奖得主约翰·霍普菲尔德和杰弗里·辛顿的开创性工作。
尽管AI系统的能力在不断提高,但目前还没有足够的人类生成数据来支撑这一进程的持续推进,而现有的模型也未必能够真正达到超级智能所需的开放性和创新性。
对于AI带来的风险,短期内我们可能不需要担心超级智能的统治,但随着AI系统获得更大的能力和自主性,不同级别的能力也将带来不同的风险。
这包括过度信任AI的风险,以及随着AI变得更加强大,可能对社会结构和就业市场造成的广泛影响。在未来,确保AI的安全发展将是一项持续且复杂的挑战。
随着技术的不断演进,人们与AI的互动方式也可能发生根本性变化。AI的进步不仅仅限于实验室或理论研究,其应用正逐步渗透到日常生活的各个角落,从智能家居到自动驾驶汽车。这意味着AI技术的发展将影响到每一个人的生活方式和工作方式。
因此,对于未来可能出现的技术变革,公众教育和政策制定者的及时响应变得尤为重要,以确保科技进步能够造福社会,而非造成不可预测的负面后果。
暂无评论内容