2024年人工智能:离开OpenAI与缺乏目标,探讨其划时代意义的迷雾

不设立目标,还能有所成就吗?

Kenneth Stanley(肯尼斯·斯坦利)和Joel Lehman(乔尔·雷曼)是知名的人工智能科学家,曾供职于OpenAI 从事“大语言模型+演进算法”方面的研究,现在人们惊讶于大模型的涌现能力就与之相关。他们共同发明了新奇性搜索算法,在不设立目标的情况下不断随机生成解决方案,评估标准是方案是否更新奇,在方案不断地进化和迭代中解决问题。

在2024复旦管院新年论坛上以及与第一财经记者交流的过程中,“有趣”是他们提到最多的词。“根据兴趣来”“做有趣的事情”“发生有趣的变化”……这些“有趣”抛开了特定目标、是计划之外的尝试,虽然并不总能保证成功,但在通向科学探索之路上却取得了意想不到的效果。即便大模型引发了2023年现象级的关注,他们对于2024年人工智能的发展仍保持审慎的态度,并提出了人们应该如何适应人工智能带来的变化。

当做事不为目标为“有趣”

“学生们有了这么丰富的工具,如何去寻找一个让他们觉得有趣的问题,去问自己应该去解决怎样的一个问题,才真正让这学期所学到的内容发挥价值。这一点对我们未来的课程设计,以及未来在和学生的互动过程当中,提供了很多思考和借鉴。”复旦大学管理学院信息管理与商业智能系教授窦一凡在采访嘉宾后和第一财经第一时间分享了他的感触,他现在把自己的教学描述为“看上去我是在教编程,实际上教的是逻辑思维。”

为什么强调有趣?在斯坦利和雷曼合著的《为什么伟大不能被计划》中提到:“个真正有趣的想法,或许会引发争议。在我们前已知和未知的边界,仍存在些尚不确定答案的问题,这就是为什么在科学的未知领域,专家们的意应该保持分歧和发散状态。正是在这位于已知和未知之间的‘蛮荒’边界地带,我们应该让类最伟的头脑进探索,不是在最共识的舒适区‘沉迷享乐’。”

离开OpenAI之后,他们在各自感兴趣的领域探索,并依然和前同事们保持联系。斯坦利想要“把相应的研究转化为服务”,开启了社交网络Maven的创业之旅,“我从写书中得到的启发就是培养开放式的探索过程,创建一个转移和搜索过程去发现许多有趣的内容,并将其应用于在线专家”,这款App上还有OpenAI CEO山姆·阿尔特曼的推荐语。雷曼则继续在心理学、心理疗法和人工智能的交叉领域中研究,他的论文《机器之爱》希望能够探索机器从更丰富、复杂的维度去“爱”人的可能性,也会和以前的同事们交流一些研究方向。

“我们从小就被灌输做什么才是正确的,似乎成功本应如此,这让人们失去了跟着兴趣前行的能力。这种能力听起来简单却像肌肉一样需要锻炼,就是我们提倡的无目标探索。我认为大家可以尝试,而且因人而异。每个人的兴趣点不一样,但要相信自己的直觉,并找出做这件事儿的回报是什么。你不一定会因此赚到钱或者评A,可你得学会相信自己的直觉,如果你想要变得有创造力,这点很重要。” 斯坦利说。

雷曼的建议一方面包括心理层面的建设,即失败没有想得那么糟,另一方面是培养兴趣,关注世界上能让你精力充沛的所在。“在人工智能的领域里,人们对未来的态度始终在冬天和夏天之间切换。有时更加乐观,有时更加悲观。从我们正在使用的计算量和数据量而言,人们讨论的范式都有起伏变化。通向伟大发现的垫脚石往往有些令人费解,是在一定技术的基础上无意中实现了另一项技术。”

用新思维适应新技术

大模型及其应用正在改变社会关系和信息传播。世界经济论坛近日发布的《2024年全球风险报告》显示,人工智能对选举结果的影响高居2024年全球风险之首。在国内,大模型的发展正在改变人们的社交和信息传播交流:视频号里越来越多热舞视频的下方都出现了一行“本视频由AI生成”,B站上越来越多的UP主在分享如何利用AIGC内容做好小红书。在海外,利用 AI 生成虚拟的网红形象再利用流量接广告赚钱的故事也频现网端。

“在AGI(通用人工智能)深刻改变了传播和交流之后,需要一些严肃的研究进行跟进。我们需要重新设置问题,那就是人们如何使用,以及为什么要用AIGC生成的内容,是为了赚钱还是有政治目的?我们要有能力研究这种现象,而不是听信大公司的说明。” 斯坦利在谈及对大公司的监管时提到,需要创造竞争的环境,包括有目的地分拆大公司。

鉴于AIGC的内容让人难辨真假,各个国家和地区也在推动和讨论相应的监管措施。欧盟发布的《人工智能法案》提案已在欧洲议会通过,这是全球首部人工智能领域的法案,将采取分级分类的监管规则,在通用人工智能、基础模型方面,把算力需求达到一定规模的基础模型自动划定为“系统性”和“高风险”。在美国,2023年总统拜登签署了一项关于人工智能(AI)的行政命令,为AI建立安全和隐私保护标准,并要求开发人员对AI新模型进行安全测试。在中国,2023年国家互联网信息办公室发布了关于《生成式人工智能服务管理暂行办法》,要求对图片、视频等生成内容进行标识,目的是为促进生成式人工智能健康发展和规范应用。

“你觉不觉得我们需要重新思考法律将要扮演的角色很有趣? AI有着越来越强的说服能力,这值得关注但还不清楚具体会有怎样的影响。立法和监管跟不上科技发展的速度。”斯坦利在回答第一财经提问时表示,他认同新技术的风险需要被审慎评估,法律需要保护一部分人,但也应该允许另一部分人创新。

那么,2024年会是以大模型为代表的人工智能突飞猛进发展的一年吗?

“很多人涌入人工智能领域,我从没想过他们会和人工智能有什么样的联系,但好像突然之间每个人都与人工智能有关,这是一种过度饱和的现象。”肯尼斯并不确定2024年人工智能会延续之前的发展势头还是出现放缓,“虽然行业增长放缓会引起人们的担忧,但这是可能发生的,取决于研究中的未知因素”。

要准确预测技术的走向并不容易,雷曼认为,2024年可能并不像人们期望的那样具有划时代的意义。“如果是的话,竞争似乎会变得更加白热化。准入门槛降低了,每个人都可以应用这些大模型,通过某种提示工程范式,人与人之间的潜在差距缩小,从社会角度来说,结果是好的,人们会尝试更多的想法,解锁很多新应用,但对个体创新者而言,这么激烈的竞争可能并非一件好事。”

大模型再强大,人们还是不应该指望大模型提供完备的解决方案。

肯尼斯给出的建议是,“不要外包思考的过程,要自己去想,因为你才是要做你感兴趣的事情最好的裁判。”

窦一凡进一步指出,对于那些过度依赖于大模型,又不知道正确答案是什么样的学生而言,对他们的学习要求提高了。“学习方式要发生变化。第一,在一个领域内我们不是要简化学习而是要精进,进入的门槛变低了,但理解是不一样的,第二我们要利用大模型工具快速迭代,把对现实世界的思考梳理出关键要点。”

“关键在于逻辑,决定了你用什么样的水平去解释。你不能依赖于大模型这个工具丢给你一个完整的解决方案,这是不现实的。”他建议,年轻人要大胆尝试和开发属于自己的大模型应用。

© 版权声明
THE END
喜欢就支持一下吧
点赞8 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容