不久前,OpenAI CEO Sam Altman 与密西根大学投资总监 Daniel Feder 展开一场对话,分享了个人在科技创新领域的深厚经验,也展现了他对未来技术、教育和社会变革的独到见解。
Altman 强调,AI 将深刻改变人类生活的方方面面,尤其是在科学进步和教育方面。未来的学生将获得比今天任何人都更好的教育,AI 将为个性化学习提供强大支持。
对于广大年轻人来讲,韧性、适应性和快速学习能力将是未来职业成功的关键。这些技能是可以通过实践培养的,也是年轻一代天然具备的优势。
尽管担心未来数据资源的枯竭,Altman 表示乐观,认为算法进步将使 AI 模型变得更高效,未来不必担忧数据不足的问题。
以下为这次对话的主要内容,enjoy~
▍o1 与 Agent 系统
Daniel Feder
我原本打算在最后进行一个快速问答环节,但我现在就要问你一个问题:你最喜欢的水果是什么?
Sam Altman
其实我不太喜欢草莓。我们之前推出了草莓,然后我们推出了 o1,我们称之为草莓,这两年我们都非常兴奋。
或者说,当我们完成 GPT-4 时,我们最兴奋的一件事就是,我们能不能用我们创造的这个东西,并在其基础上教模型进行推理?
我们认为,如果我们能做到这一点,将会是一个非常重大的进步。在某种意义上,下一个最重要、最显而易见的缺失环节是什么?所以我们开始着手研究这个问题。
OpenAI 的许多团队以不同的方式在研究这个想法。我们尝试了一些方法,有些成功了,大多数没有成功。但我们投入了越来越多的精力在那些成功的事情上。
今天我们推出的模型是我认为的第一个,我会说,尽管还处于非常早期阶段,但它是第一个真正通用的复杂推理模型。
我们有一个想法是有五个 AI 的层级,而我们在过去几年一直处于第一级,也就是这些基于聊天的模型。
而第二级则与推理有关,我认为这是我们第一次到达这个阶段。从这里开始它将快速提升,但即便是这个模型,已经相当不错了。
Daniel Feder
那么这是否意味着我们走上了 AGI 或超人智能的道路?这将我们带到了哪里?
Sam Altman
我认为我们确实在这条路上。我们很早就踏上了这条路。这是朝着这条路的下一步。
但是你知道,我认为这是一条长期的指数曲线,而我们非常幸运能亲身经历和见证。这是一个令人激动的时代。
我们都很疲惫和精疲力竭,但这种范式转变并不会经常发生。你知道,GPT-4 是其中一个,而今天又是一个。这真的很特别。
Daniel Feder
我很好奇的是,当 GPT-2 推出时,它迅速走红。我觉得它的传播速度有点让你意外。
Sam Altman
你知道,直到发生之前你永远不知道什么会走红以及为什么会走红。那是 ChatGPT 的时刻,而不是 GPT-3 的时刻。
它的发布是基于 GPT 3.5,但为什么不是 GPT-3 或 GPT-4 那种传播速度有点难以预测。我们知道它会发生,但我们确实对它发生的具体时间感到意外。
Daniel Feder
所以我只是试图把一些点连起来,看看我们现在发布的这个东西进展如何。你知道这是一件大事,或者你相信它是一件大事。
但是回顾过去,我听过很多人提到,怎么可能你们不知道 GPT-2 是件大事?它简直是魔法。所以,当你专注于某些指标和开发时,是否有某些东西让你忽略了它的影响呢?
Sam Altman
当我们发布 GPT-3 时,技术界对此感兴趣,但大部分世界却不怎么关注。我对此有点困惑,因为我觉得它应该引起更多的注意。
而当我们在 2022 年 11 月 30 日推出 ChatGPT 时,它基于 GPT-3.5,而我们在 2022 年 8 月 2 日已经完成了 GPT-4 的训练。
我们在内部使用了好几个月,我们觉得 GPT-4 非常好,而 GPT-3.5 对我们来说已经是非常过时的东西了。因此,我认为我们对它相比 GPT-3 的提升程度判断失误了,尤其是对那些还没有用过 GPT-4 的人来说。
所以这可能是为什么我们感到惊讶的原因。不过,你知道,预测什么东西会火起来确实很难。你可以说为什么人们对 GPT-3 没有更兴奋呢?
Daniel Feder
那么回到“草莓”这个话题,你觉得有哪些特别值得注意或在你看来最重要的地方呢?
Sam Altman
如果你看看 AI 和电子邮件的竞赛,它得到了 93% 的正确率。我们今年为好玩参加了一次,我从高中以来都没做过这个测试了。很难做到 93% 的正确率。
所以,我觉得可以指出一些类似的指标,比如帮助编程的实用性将会让人惊叹。我认为许多不同领域的研究人员能够用它来增强他们的研究。此外,一如既往,人们还会发现我们从未想到的使用方式。
Daniel Feder
关于当前的最先进技术,你认为能做到什么?
Sam Altman
这非常不同。我们给它编号,因为它还是一个非常早期的东西。我们曾经想过,也许我们可以称它为 GPT-5,尽管这并不完全合适。
但这是一个新的范式,它是一种使用模型的不同方式,擅长不同的东西。它在解决困难问题上需要很长时间,这很烦人,但我们会改善它。它能够做 GPT 系列做不到的事情。
当然,它在很多方面也有困难,因此需要一些时间来适应。但是当你站在后台,看着人们在网上说的内容,真的是很棒。
看到那些没有每天盯着这个一年的人第一次用它,然后感叹,“哇,这个东西写出了如此复杂的代码”或者“它帮助我解决了我卡住的难题”,这非常令人惊讶。
所以我认为接下来几周我们会看到很多人适应和开始使用它,但我认为这些模型在某些方面如此令人印象深刻,以至于我们忽略了它们在推理方面的不足。而现在它们可以了,这真的是一个阶段性的变化。
Daniel Feder
是的,我想深入一点。现在我们看到的一些方法,比如递归自我改进或开放式 AI 或 Agent AI,都在试图达到这样的输出。那么这个模型是否超越了这些方法,或者它们之间的关系是怎样的?
Sam Altman
我认为这确实开始启用 Agent 系统了。阻碍 Agent 系统的一件事就是缺乏一个有足够推理能力和足够健壮的系统,可以进行长周期任务并拥有足够的信心或严谨性。
我认为我们离自我改进循环还很远,当我们接近这一点时,需要非常小心。但我确实认为 Agent 的愿景现在已经近在咫尺了。当然,这不会是下个月的事情,但我觉得它已经在掌控之中。
Daniel Feder
这对强化学习和人类输入意味着什么?你知道,RHLF 一直是一个重要的工具。
Sam Altman
o1 的核心其实就是强化学习。这是它的秘密。我们过去也做过小规模的版本。RLHF 是一个很好的例子,但你知道,这就是强化学习语言模型的梦想,它真的奏效了。
▍AGI 与人类的过去和未来
Daniel Feder
或许我们可以回顾一下,AGI 对你来说意味着什么?
Sam Altman
你知道,无论是两年后还是五年后,或者未来某个时间。我觉得这个术语基本上已经失去了意义,因为每个人对它的理解差异太大了。
比如,有些人称 GPT-4 为 AGI,我觉得它绝对不是。有些人谈论一个模糊的东西,我不确定那是什么,但他们认为它会在未来的某个时间到来,总是说未来几年。
还有些人认为它是那种真正能够递归自我改进的超级智能。我希望能禁用这个词,因为它已经承载了太多不同的含义。
我们喜欢这个层级框架的原因之一是,它至少能让你就一些里程碑达成一致,并用更严谨的方式讨论问题。
我想,如果你回到过去,甚至不用很久,回到五年前,向他们展示 o1,他们会非常惊讶。
大多数人会说,“AI 在 2024 年绝不可能做到这一点。”我认为如果你快进五年,看到 2029 年我们将拥有的技术,大多数人会说“绝不可能,这不可能继续这样发展下去。”
我认为重要的不是 AGI 的定义或争论它何时到来,而是我们正处在这条指数曲线上。从 2019 年到未来很长时间内,每一年都会展现令人惊叹的进步。
Daniel Feder
好吧,我不会再叫它 AGI,今天暂时称它为 AGI 吧,然后我会停下来。但你知道,跟随你的思路,曾经你可能认为会有某个事件,不管那是什么。
而现在,你把它描述为一个朝着某种事物的进化过程。我们现在被定义为通过推理能力和采取步骤等功能来实现目标。
是否仍有可能会有一个事件发生?我一直困惑的是这个抽象的概念。LLM 是基于语言的,而语言本身是对现实世界的抽象。
AGI 的一种理解可能是,如果你能做到这些“魔法”,而不依赖于抽象,而是直接在抽象上工作。这是否意味着某种事件的发生?
Sam Altman
是的,我认为确实会有一些里程碑式的事件,但我觉得它会感觉更加连续,某种程度上符合指数增长的定义。我觉得它会是连续的。
因为当系统能够比整个 OpenAI 团队做得更好时,那应该是一种不连续的变化。但无论你用对数尺度还是指数尺度,这些都非常奇怪。
Daniel Feder
我真的很想知道你对技术发展及其在社会中的角色有什么看法?乐观主义对你意味着什么?
Sam Altman
我不知道我们怎么能坐在这个时刻而不感到乐观。我认为我们正经历人类历史上最激动人心的技术革命之一。人类在不久的将来会实现的,或者已经能够实现的事情,真的让人惊叹。
我觉得,今天的世界与昨天相比是如此不同。人们会创造出让我们惊讶的东西。你们所有人都会创造出让我们惊讶的东西。
人类历史的故事就是我们创造了更好的工具,然后人们用它们做了更了不起的事情。他们自己又用这些工具添加了一层“脚手架”,而我们只是沿着这条可能性的曲线不断前进。
这些平台的转变偶尔会出现一次,像是一种间断平衡,而这将是一个大大的句号。而现在这种开放的环境,这种为彼此创造更好事物的可能性真的非常巨大。
教育、医疗、科学,所有这些领域都会加速发展,它们会以极其迅速和剧烈的方式提供更好的服务。所以我真的不知道此刻怎么可能不感到乐观。
现在感觉就像是一个无限可能的时代。我认为,至少在科技行业,近些年有种停滞的感觉。而现在,我觉得这是类似于电力或晶体管发明这样的重大事件。。
▍20 岁创业者正是闯的年纪
Daniel Feder
为今天做准备时,我回看了一些你以前的视频和采访。去年你和 Stripe 的联合创始人 Patrick Collinson 做过一次采访。
你当时表达了一种沮丧,说现在真的缺乏伟大且有影响力的 20 岁创业者。你认为现在的突破是否意味着我们将看到 20 多岁的超级创业者?
Sam Altman
我觉得是的。我认为年轻人在这样的行业大地震中,特别是在科技行业,具有相对最大的优势。
而且,看着这些人,感觉有点奇怪,看着有些人比我更擅长使用 ChatGPT,毕竟我本应该很擅长。但当我去拜访大学时,确实发现 20 岁的学生比我更擅长使用 ChatGPT。我认为这会成为巨大的优势。
这应该是一个 20 岁创业者“复仇”的时代,过去的十年里,他们的机会少了许多。是的,我这么认为。我只是觉得有点遗憾。
我自己是 20 岁的创业者,我对那段经历感到非常感激,过程非常有趣。但我认为在过去的一段时间里,科技行业有些僵化,现在我认为情况会回转。
Daniel Feder
回到这个话题,吸引人们从事高度雄心勃勃的项目,鼓励或促成这些项目是怎么运作的?你曾经领导 Y Combinator,这是全球最顶尖的创业加速器之一,而这些真正伟大的想法和变革性的技术并不会按计划到来。
你是怎么看待的?无论是在大学还是公司,如何为这些杰出的人才提供机会,让他们能够在没有时间线的限制下去做这些伟大的事情?
Sam Altman
首先,我认为人们应该做他们想做的事情。如果你想做一些能在周末完成的事情,而且让你感到快乐和满足,那很好,没问题。
但如果你想从事一个真正长期的项目,我认为你至少应该能够做到这一点。而在过去的十年里,在硅谷这类事情变得更加困难,筹资也更加困难。我认为这终于在发生变化。
我的建议是,做困难的事情比做简单的事情更容易。在创业或研究项目中,最重要的是你能否聚集足够多真正有才华的人,让他们兴奋并全力以赴朝同一个方向努力。
如果你正在尝试创造 AGI,这是一个有趣的使命。如果你在尝试做核聚变,这也是一个有趣的使命。如果你在做第 2000 个相同的想法,那就没那么吸引人了。
所以我认为尽管追求真正雄心勃勃的目标可能需要稍微多一些初始能量,但无论如何,创业都会非常艰难和痛苦,因此你不妨追求一个人们愿意长期加入并共同努力的目标。
Daniel Feder
这可能很孤独,对吧?因为正如你所说,那些最值得做的事情往往看起来像是坏主意。
Sam Altman
你必须要忍受别人不理解你。是的,你必须这样做。不过它并没有传统意义上的孤独。至少对我们来说不是孤独的,因为 OpenAI 的每个人都在一起工作。
从 2016 年到 2020 年,基本上没有 OpenAI 之外的人关心我们在做什么。我们偶尔发布一些小型的研究项目,但不是什么大事。
从 2020 年到 2022 年底,科技行业里有些人开始关心,但不算太多。直到 2022 年底,我们发布了 ChatGPT,突然之间每个人都关心了。
但在前四年里,没有人关心的时候,我们内部的感觉是我们是正常的,而外界的人似乎是疯了。但我们非常确信我们知道一些非常重要的事情,感觉很奇怪,为什么别人不明白或不关心,但我们并没有因此感到孤独。
事实上,这种感觉非常激动,因为我们就像是在一场发现的冒险中。我记得那时我觉得很奇怪,其他人似乎没有意识到,但我们完全不为此感到困扰。我们会说,“嗯,我们显然是对的。”
▍关于安全与监管
Daniel Feder
这让我想起 1968 年 Elvis Presley 的一句歌词,虽然我不记得当时的歌,但歌词是“少一些谈论,多一些行动。”不过,抛开哲学层面的安全讨论,有一点我听说过 OpenAI 以及其他项目做的事情与监管或治理相关。
你曾提到,研究机构可能做得太少,私人企业可能做得太多,而政府可能一开始做得太少,然后做得太多。但它们都是并行存在的。你是如何思考这个问题的?
Sam Altman
我认为我们在安全方面做了很好的技术工作,但还有很多工作要做,而且这方面的形势在不断演变。
你知道,随着我们在 AI Agent 的世界中思考安全问题,它不仅仅是一个技术问题。你允许你的自动化 Agent 在互联网上操作,拥有你的密码和所有访问权限时,你需要信任这个系统。
安全问题已经不能与技术开发分离了,它会成为我们如何部署这些系统的限制条件。尽管这不是传统意义上人们理解的 AI 安全问题,但它类似于系统工程中的安全系统设计。
到目前为止,我对这个领域的发展方向总体上是满意的。我认为比我能预想的中位数情况要好得多。但随着这些系统变得非常强大,安全问题变得非常复杂和具有挑战性。
Daniel Feder
是的,关于监管的词汇经常出现。我不知道我们应该如何看待它,是监管还是治理?
Sam Altman
我认为监管是良好政策的一部分。我们需要的是良好政策,一个行业应该做合理的事情,监管机构应该做合理的事情,用户也应该以合理的方式使用这些系统。显然会需要监管,但也会需要一系列其他措施。
Daniel Feder
不过,信任问题是一个巨大的挑战。如果没有首先获得信任,无论是对 Sam Altman、OpenAI 还是其他地方来说,任何事情都很难进行。你是如何看待在扩展过程中建立信任的?
Sam Altman
我们很高兴看到的一点是,用户已经非常迅速地适应了技术。虽然 AI 仍然存在幻觉和常识性错误的问题,但比以前少了很多。
当我们首次发布模型时,我们担心用户会完全不信任它,或者过度信任它,这都会带来问题。但出乎我们意料的是,用户很快就掌握了如何使用这项技术,理解了它的局限性,知道什么时候该使用它,什么时候不该使用,什么时候该验证。
Daniel Feder
我想回到关于信任的问题,因为这与“黑箱”内部的内容有关。无论是“草莓”还是一小时模型、两小时模型、三小时模型等,这些进步都是为了用更少的数据做更多的事情。
然而,缺少的东西是低语境语言,比如我的家人讲匈牙利语,但匈牙利语的内容并不多。库尔德语、几百年的文学作品也并未被纳入这些语言模型。这重要吗?不重要吗?你怎么看?
Sam Altman
这确实是一个问题。我们想尽可能多地将这些内容纳入模型中。我们与很多合作伙伴合作,帮助我们将低资源语言或尚未数字化的数据引入这些模型中。我们非常愿意做更多的工作,并乐于将人们希望的所有内容都加入进去。
Daniel Feder
这是否也涉及到与安全性相关的可解释性?还是这是一个独立的问题?
Sam Altman
我认为这是与可解释性角度分开的,但这对我们来说也非常重要。我认为“草莓”范式以及这些可以查看的思维链是可解释性工作的新且令人兴奋的方向。
Daniel Feder
我想把麦克风交给一些学生,但在此之前,我还有几个快速问答问题。我想你已经回答了其中一个。第一个问题是关于摩尔定律的明天版本,你知道我们往往高估了技术在短期内的影响,低估了它在长期内的影响。我们现在低估了哪些长期影响?
Sam Altman
我认为我们低估了这些技术将无处不在,融入一切。你们这一代是最后一代在成长过程中不会期望每个产品和服务都非常智能的。
在某种认知能力方面,技术将比你更聪明,而这会改变我们如何使用电脑、如何与周围世界互动,以及这种智能如何无处不在,并在我们做的每件事上提供极大的帮助。我觉得我们还没有完全意识到这一点。
▍智能和能源是两种基础资源之一
Daniel Feder
现在我们有一个麦克风正在传递,我想大约有十几个学生会被邀请提问。
观众
谢谢你。首先感谢你今天来到这里,也感谢你帮助我能够来到这里。我想问一个问题,因为我听了一期关于全球能源状态的播客。
为了给大家提供一些背景信息,目前美国的能源生产大约为 1 太瓦,成本可能是每千瓦时 17 到 25 美分。我想,到 2050 年,我们应该将其提高到 2 太瓦,成本大概相似。
而中国、法国和其他很多国家的能源生产效率远超我们。所以我想听听你对这种能源差异对企业的影响,既包括单位经济效益,也包括更广泛的安全层面。
你认为这种能源差异能通过硬件改进来弥补多少?通过优化硬件的软件又能弥补多少?
Sam Altman
我认为,能源是未来的两种基础资源之一,另一种是智能。我们应该拥有比现在更多的能源,并且应尽可能降低能源的价格。
我认为核聚变技术会成功,成为地球上最便宜的能源。如果核聚变不成功,我仍然认为太阳能加储能的成本可以变得非常低,并且我们可以大量使用这种能源。
我认为,如果我们国家不在清洁、安全、可靠的廉价能源上进行大量投资,那将是非常危险的。
如果你研究能源的历史,你会看到能源成本下降带来的巨大生活质量提升。而我们在这方面的进展并不多,我希望有更多进展。
特别是在一个 AI 世界里,要运行 AI 系统并完成所有它能想到的新任务,我们需要大量的能源。如果美国致力于一个战略,决定在丰富的智能和丰富的能源上引领世界,那将是一件非常好的事情。
我认为未来十年在这个领域会有很大的进展。政府可以在其中发挥巨大领导作用。
还有很多事情需要做,比如电网非常糟糕,许可流程在美国非常复杂,正如你提到的,其他地方能更快建设能源,但我们应该大量推动这一进展。
观众
你好,我叫 Eric,来自信息学院,我是一名攻读医疗与 AI 的博士生。我的问题是,作为 OpenAI 的 CEO,你最具挑战性的时刻是什么?你是如何应对的?
Sam Altman
我可能不会给出你预期的答案。最具挑战性的时刻并不是一个单一的时刻,而是在我们不知道下一步该做什么的时候。
在我们推出产品之前,我们一直在进行研究,但并不清楚应该专注于什么。我们试图选择一些随机的事情,但我们就像是在森林里摸索。
最早的时候,人们会变得失去动力,人们会为一些很琐碎的事情争执,那时感觉就像,“我们在这里做什么?也许我们太乐观了。”危机是可以应对的,会有很多危机。
你知道,每天结束时,我经常感到惊讶,一天内竟然有这么多问题发生。但是当一切都不顺利、没有进展、没有明确方向时,人们会变得迷茫和失去动力。
你得让大家保持合理的乐观,并专注于某件事。这在最初非常具有挑战性,但当我们终于找到了方向后,一切都变得更好了。
观众
晚上好,我叫 Ashita,来自信息学院。我想问的是,未来二十年内 AI 对教育系统的影响,尤其是在个性化学习和教育普及方面会是什么样的?
Sam Altman
这是我最感兴趣的几个领域之一。我最感兴趣的是 AI 将如何推动科学进步,而排名第二的就是 AI 在教育领域的潜力。
我们经常听到来自学生和老师的令人惊喜的故事,他们已经用 AI 改变了他们的学习方式。
随着模型的不断改进,随着人们在此基础上构建更多服务,我认为它已经在改变人们的学习方式,也在改变人们获取和使用信息的方式。
我的希望是,现在开始上学的学生将会比今天毕业的学生获得更好的教育。我真的认为这是一个如此深远的变革,看到人们已经用它做的事情,令人惊叹。
观众
你好,Sam。我叫 Matt,是工程学院的计算机科学学生。我想知道,OpenAI 在产品巨大流行之后采用了哪些风险管理技术?
Sam Altman
一个重要的部分是建立一个非常出色的监控系统。我们在发布前进行各种测试,比如红队测试和安全系统的构建,这是我们计划的一部分。
但我们有很多人在全球范围内使用我们的产品,进行各种各样的操作,建立一个优秀的监控系统是我在产品发布时低估的需求。现在我们已经变得更加擅长了,这对我们帮助很大。
所以,严格的发布前测试以及持续的仔细监控是关键。OpenAI 的一个奇怪之处在于,我们必须在一年内建立整个公司——一家大型公司。
在 ChatGPT 发布前,我们还是一个小小的研究实验室,而一年后,我们已经是一家大型科技公司了。
这个转变过程非常痛苦,但我们学会了在多快的时间内建立起新功能。这让我们团队感到鼓舞。
观众
你好,我叫 Acute,是一名攻读计算机视觉的硕士生。我今天的问题是,如何在关键领域如医疗或法律环境中应对 AI 的“幻觉”问题?你们是否在 LLM 管道的某个特定阶段重点研究这个问题?
Sam Altman
首先,我想指出,过去几年里,这个问题已经有了显著的改善。2022 年离现在的时间不算长,但从 AI 进步的角度来看,那已经是很久之前的事了。
当时 GPT-3 是全球最好的模型,但它其实很差,成本高,速度慢,而且有很多“幻觉”问题。而如今,随着 o1 的发布,尽管“幻觉”问题仍然存在,但它已经不再妨碍大多数使用场景为用户带来巨大价值。
当然,在某些领域,依赖 AI 还是会很危险,因为“幻觉”问题仍然存在,但这种情况会不断改善。此外,正如我们之前讨论的,人们对工具的使用具有良好的判断力,他们能够理解工具的局限性,知道什么时候该用,什么时候不该用。
所以在未来几个月和几年里,我们会继续改进这个问题,但它已经不再是我们听到的最主要问题之一了。
观众
你好,Sam。我叫 Catherine Lin,是罗斯商学院的 MBA 学生。我的问题是,作为一名 MBA 学生,我想成为 AI 领域的产品经理。
我应该专注于发展哪些关键技能或经验,才能有效地在先进 AI 技术与市场之间架起桥梁?谢谢。
Sam Altman
我认为对任何类似的事情来说,答案就是去实践。我坚信,如果你想在某个领域变得优秀,你需要通过实践去变得优秀。
我认为这是一条非常被低估的生活建议。你知道,有时候人们想做某件事情,就会去先学习相关的技能,以便以后运用到这件事上。
但实际上,你应该尽快去做那件事,并从中学习。这也是我对你要做的事情的建议。谢谢。
观众
你好,很高兴见到你。我叫 Julia Cassab,是密歇根大学信息学院的大四学生。我今天的问题是:你是否认为现在的计算机和信息科学专业的学生应该对他们未来职业的安全性感到不安?因为他们辛苦学习的技能在未来可能会变得过时。
Sam Altman
有点吧,但不完全是。如果你认为五年后的程序员工作在每分钟的层面上与今天的程序员工作类似,那么可能会有不太好的预期。
但如果你认为世界对软件的需求几乎是无限的,且作为其中的一部分,未来会有一个非常重要的角色去定义它应该是什么、以及如何在一个比今天更高的编程层面上工作,那么我认为这类工作的需求会非常大,但它确实会非常不同。
我还记得听说,当更高级的编程语言出现时,很多“元老级”的程序员都认为“工作会没了,因为新东西太简单了,每个人都能做。”
但事情并没有完全这样发展,这次也不会完全如此。不过,程序员的能力和期望会大不相同,这份工作将与今天编写代码的意义完全不同。
我认为未来重要的技能是韧性、适应能力和快速学习的能力,而这些技能是可以通过实践学习的。如果你能掌握这些技能——这是年轻人自然占优的地方——那么我认为你会很好地应对。如果不能,那可能会有些波折。不过,通过练习,这些技能是可以提升的。
观众
你好,我叫 Amy,是工程学院的计算机科学学生。我想知道,既然 OpenAI 模型是通过从互联网等海量数据中进行训练的,当所有可能的数据源都被耗尽时,你们计划如何获取训练数据?
Sam Altman
人类在相对较少的训练数据下学到了大量知识。所以我毫不怀疑我们会找到更多高效利用数据的方法。以前我对此非常担心,但现在不再担心了。我认为我们会跨越数据的瓶颈,算法的进步会解决这个问题。
观众
你好,我叫 Jack May,是罗斯商学院的 MBA 学生。我的问题是:关于 AI,哪些伦理或监管困境让你个人最为困扰?而你认为哪些问题是媒体或公众误解的?
Sam Altman
最让我担忧的问题是,我相信社会可以适应几乎任何程度的变化,只要给它足够的时间。但我们和其他人正在向世界推出的工具,如果事情按我们预期的发展,将要求社会以更快的速度适应。这种变化的速度及其伦理影响让我最为困扰。
而我们该如何应对这个问题还很不明确。尽管我认为有些事情是可以做的,但能否有社会意愿去推动这些变化,或者这些变化是否真的有益,这些都非常不明确。
因此,如果我们这么快地经历社会的重构,我们该如何帮助人们适应并在其中繁荣?媒体关注过多的问题是什么?我觉得媒体对 AI 的报道相当糟糕。我希望不再在新闻中看到“终结者”式的机器人,还有其他许多问题。
暂无评论内容