财新传媒 财新传媒

阅读:0
听报道
 
 
 

2月12日,巴黎AI峰会现场,Meta首席人工智能科学家杨立昆与人工智能领域的多位重量级专家展开了一场圆桌对话。

本次对话嘉宾:

Yann LeCun(杨立昆):纽约大学教授及Meta首席人工智能科学家

Asu Ozdaglar:麻省理工学院电气工程与计算机科学系教授

Michael I. Jordan:计算机科学、人工智能和统计学领域著名学者,加州大学伯克利分校杰出教授

Stéphane Mallat:法国著名数学家、信号处理专家和计算机科学家

Bernhard Schölkopf:德国著名计算机科学家和人工智能专家

本场圆桌讨论了社会智能的局限性与AI的未来、AI的伦理与监管、AI发展带来的能源消耗问题、AI的偏见与公平性、AI在教育领域的应用、人机协作与互补、经济学与AI的关系等话题。

杨立昆认为人工智能“本质危险”的论断是一种谬误,反对过早和过度地监管AI研究与开发,主张应将监管重点放在AI的部署应用层面,他同时力挺开源AI模式,他还认为经济规律本身会限制AI能源消耗的无节制增长,无需过度担忧。杨立昆还警告说如果专有系统占主导地位,少数公司可能会控制AI,从而可能导致认知影响力的集中,并进一步加剧与其他观点的分歧。有专家也认为,AI尤其是在社交网络上似乎非但没有改善社会理解,反而正在加剧两极分化。

嘉宾们普遍认为,无论未来AI发展到何种程度,其核心本质仍然是作为人类的辅助工具。AI伦理和监管讨论应立足于现实,关注实际问题和可操作的解决方案。

以下是圆桌实录,经翻译编辑:

主持人:我们的炉边谈话时间会稍微缩短。我想给今天在台上的各位专家科学家们提出一个挑战,看看各位是否接受。我们会尽量长话短说,因为最终我们的时间比预期要少。我想知道我们是否可以开始探讨社会智能的概念,因为这当然是我们经常听到的一个话题。首先我想请教您,关于社会智能,它的基本内涵包括理解情绪、感知意图以及人际互动。您认为目前的人工社会智能有哪些局限性?

Asu Ozdaglar:太棒了。这个话题我非常感兴趣。我觉得我们正处在一个真正的转折点。许多小组都强调了这一点,我认为这也是我在许多演讲中看到的共同主题。人们都在谈论 AI 助手、多智能体等等。我的意思是,我们似乎都预测到将来它们会无处不在。我想强调的是,目前很少有问题或研究关注这些智能体将如何与人类互动,甚至更广泛地说,它们之间如何互动。这些 AI 智能体将代表人类行动或为人类提供建议,而人类又身处各种社会和经济互动之中。因此,它们基本上将直接或间接地,面临彼此相关的决策。我认为,尽管人们对 AI 及其社会影响感到兴奋,但在如何思考这个问题上,我们可能甚至没有进行充分的概念化。

主持人:让我们继续探讨刚才的话题。我想邀请 Mike 也加入讨论,因为刚才提到了决策的制定方式和过程。Mike,您过去曾谈到过关于 AI 的发展,认为不应仅仅专注于创造自主的类人智能体。您如何看待这种社会性视角,以及它最终如何影响我们对智能的理解?

Michael I. Jordan:嗯,我认为如果我们从五万年后的角度回顾这个时代,最重要的成就不是娱乐,而是我们创造了文化、艺术、沟通方式以及各种启发人心的事物。这才是人类的本质。对我而言,技术如果不能与人类的文化创造和精神追求相结合,我就不太感兴趣。我不希望技术仅仅是像一副眼镜,提醒我 9 点有个预约。我真切希望技术能够丰富人类的体验,更重要的是,它不应仅仅局限于个人体验。对我来说,世界不仅充满了需要建模的事物,更充满了与我互动的人们。我不了解他们的知识,他们也不了解我的知识,而且无法将所有信息都囊括在一个系统之中。因此,我希望能构建经济系统。在我的职业生涯中,见证了反向传播算法的兴起,看着错误率不断下降。那时我就意识到,蛮力 AI 终将成为现实。但我并不想仅仅止步于此。我希望确保 AI 系统是可靠和值得信赖的。因此,我开始转向统计学,并对统计学产生了浓厚的兴趣。Jan 可能在他的演讲中提到过,我过去常常过多地提及 “统计学” 这个词。而近十年,我的关注点转向了经济学。我发现经济学原理无处不在,信息不对称、人与人之间的误解,这些问题都让我意识到,将人们聚集在一起,就能创造出个体无法企及的成就。所有这些方面,正是我在讨论中所关注的,不仅仅是社会智能,更是文化、互动以及创造新事物的能力。正如土木工程这样的传统技术创造了建筑和桥梁,从而让人类能够从事全新的活动。

主持人:所以,Mike,我理解您的意思是,目前缺失的环节,或者说需要弥补的差距仍然存在。现在我想请 Stephanie 加入讨论,因为我认为增强社会智能至关重要。您对此有何看法?关于如何改进,我认为这正是 Mike 想要表达的,即加深对社会科学的理解,并强调集体性而非个体性。我们如何提升集体应对能力?

Stéphane Mallat:关于社会智能,我认为 AI 是否能够提升它,这确实是一个值得探讨的问题。当然,AI 确实改善了跨文化交流,但在社会认知方面,我们反而看到了两极分化现象,例如在社交网络上。因此,我对此并不乐观,原因之一是信任问题,这些 AI 系统掌握在公司手中,而这些公司的自身利益,与追求和平社会互动的目标可能存在冲突。第二点是关于 AI 是否有能力将我们聚集起来,为了共同目标而行动。这里确实存在一个关于 AI 给出的任何诊断结果的可解释性问题。全球变暖就是一个明显的例子,科学界对此的解释非常清晰,也给出了明确的要素,但我们仍然没有就应对方案达成共识。因此,我不太确定 AI 能否在这方面提供帮助。现在,您提出的第三点是社会科学。我认为社会科学领域存在非常有趣的潜力,我可能要在这里做一些简化概括,但我仍然坚持认为,社会科学在很大程度上依赖于基于少量事实的低维度模型解释。而现在,我们拥有了实验和数据,这为构建更复杂的模型,包括网络模型,提供了可能。但是,同样,在社会科学中,就像物理学一样,我们不仅仅对预测感兴趣,更在于理解现象背后的机制。而这正是 AI 在社会科学领域面临的挑战。我们拥有预测系统,但对现象背后机制的理解仍然非常不足。

主持人:非常感谢各位的真知灼见,Jan 早些时候也提到了很多相关理解。现在我想稍微转换一下话题,因为今天观众提出的许多问题都围绕着生成式 AI 的可持续性。考虑到时间有限,我就直入正题了。Bernard,我想请教您,在开发节能算法方面取得了哪些进展?这些算法最终能够帮助我们应对当前面临的全球性挑战。

Bernhard Schölkopf:首先,能源消耗确实是一个令人担忧的大问题。目前的情况是,如果所有的搜索查询都被 GPT-4 这样的大语言模型所取代,那么粗略估计一下,其能源消耗可能就会占到全球总能源消耗的 10% 甚至更多。而且我与一些年轻人交流时发现,很多人表示他们现在已经不怎么阅读文本了。如果有人给他们一篇文档,他们会先用 GPT-4 总结一下。可以预见,这类工具的用户会越来越多。因此,能源消耗确实是一个非常重要的议题。当然,现在大家也在致力于开发更小型的模型。就我个人而言,我认为开发小型模型与追求模型规模的不断扩大,并期望通过拓展来提升性能是同等重要的。从科学角度来看,探索如何构建更小型的模型可能更具意义。但我认为,同样重要的是要考虑计算集群的可持续性。

目前,世界各地都在大规模地建设计算集群,但很多时候,人们并没有充分考虑这些集群所在地的能源供应情况。芬兰的 Lumi 集群在这方面树立了一个很好的榜样。如果我没记错的话,他们似乎是在某个偏远地区找到了一家废弃的造纸厂。那里靠近水力发电站,电力供应充足。他们只是将计算设备填满了整栋建筑,甚至无需新建混凝土结构,这也能减少大量的二氧化碳排放。而且我记得这个集群完全使用可持续能源供电。我认为各国都应该认识到计算集群的重要性。也许企业已经意识到了这一点,但一些欧洲国家有时将建设集群视为一种 声望工程,一种为了剪彩和在报纸上露脸的政绩工程。然后,他们将集群部署在那些在可持续能源方面并不理想的地方。我认为芬兰在这方面做得很好,他们将集群建在了人迹罕至的偏远地区,虽然位置偏僻,但能源供应是可持续的。

主持人:好的,看来在节能算法方面已经取得了一些进展,但显然还有很多工作要做。接下来,我们继续探讨可持续性这个话题。Jan,您之前提到过,有些 AI 系统的性能还不够理想,并且存在一些问题。您如何看待可持续 AI 的发展目标?您认为目前在可持续 AI 发展方面的合作是否充分?因为今天我们听到了很多关于合作的讨论。

Yann LeCun:嗯,答案是肯定的,合作是足够的。原因有很多。首先,全球所有数据中心的总耗电量大约占全球电力消耗的 3% 左右,注意是电力消耗,不是所有能源消耗。所以占比不算特别大,虽然不可忽略,但也没那么夸张。问题在于,如果我们像我之前描述的那样,未来每天都大规模使用大语言模型,并且有数十亿用户都在使用,那么 AI 的能耗会不会急剧增加,占到能源消耗的很大一部分?我的答案是不会,因为这会受到经济因素的制约。我是说,人们愿意每年花费 2000 欧元来使用 AI 助手吗?如果要使用最顶级的 AI 系统,目前的成本大概就是这个水平。可能没多少人愿意花这么多钱,对吧?我最近和一些印度的朋友交流,他们正在考虑建设数据中心,以便向印度民众提供 AI 助手服务。他们计划的预算规模比目前的成本要低 10 到 100 倍。他们表示,如果要为 8 亿印度人民提供服务,成本必须降低 20 到 30 倍。因此,降低 AI 能耗有巨大的驱动力。这是使 AI 在经济上可行的唯一途径,只有这样才能回收在基础设施方面的巨额投资。许多公司投入了大量资源,例如每家公司都有数百名工程师致力于硬件研发,开发专门的芯片来加速推理运算。还有许多初创公司也在做同样的事情。此外,还有很多人在更底层的函数库和编译器层面进行优化,以尽可能提高效率。还有人尝试将大型模型提炼成小型模型。还有人使用混合专家模型,这样就可以针对简单问题使用简单模型,而针对复杂问题使用更复杂的模型。

总而言之,降低 AI 能耗的驱动力是真实存在的,人们已经在积极开展相关工作了。经济激励是驱动一切的根本因素。因此,并非人们忽视了这个问题,或者没有采取行动。另一个方面,许多大型科技公司,也就是所谓的“超大规模企业”,他们中的大多数都设定了实现碳中和的目标,有些甚至已经实现了。例如,Meta 公司实际上已经实现了运营层面的碳中和,虽然不包括供应链,但运营层面确实实现了碳中和。他们实现碳中和的方式主要是通过购买可再生能源。因为数据中心不可能完全依靠太阳能供电,对吧?因为夜间也需要运行。Meta 公司是美国最大的可再生能源买家。

主持人:所以您的意思是,激励机制是存在的,关键在于如何落实到位。下面我想将可持续性与伦理道德联系起来。Asu,正如我们所知,可持续发展和伦理道德都是需要努力实现的目标,需要切实落实到位。我们如何确保在 AI 讨论中,透明度和可解释性始终占据优先地位?因为有些 AI 理念非常复杂,普通人可能难以理解。

Asu Ozdaglar:这是一个非常好的问题。我认为我们需要采取多方面协同的方法。首先,我们需要确保未来的劳动者、研究人员和学生都更加充分地认识到 AI 工具,了解它们的能力和局限性。另一方面,我个人非常关注人与 AI 的交互。AI 工具应该如何帮助人类和人类决策者?我认为,要实现 AI 模型的潜力,就必须高度重视我之前提到的“可读”和“可理解”的架构。缺乏可读性会带来问题。已经有证据表明,在放射科和医疗领域引入 AI 工具,实际上并没有起到预期的帮助作用。例如,AI 可能会引入新型的错误,甚至是 AI 出现之前根本不存在的错误,因为医生和放射科医生并没有真正理解 AI 系统给出的建议。这涉及到人与 AI 之间的沟通问题。AI 系统固然强大,可以提供各种各样的信息,但如果人与 AI 之间的沟通没有经过周全的考虑和设计,反而可能会引发各种问题。例如,最近有很多新闻报道称,AI 实际上使放射科医生的工作变得更糟。原因在于,医生可能会误读 AI 给出的信号和建议,他们无法从 AI 的建议中获得完整的统计信息。这就意味着,医生不确定 AI 是在重复他们已知的信息,还是在提供新的建议,从而 受到“确认偏差”等因素的影响。因此,我认为我们必须继续关注 AI 模型的透明度和可读性,无论我们如何称呼它。与此同时,也要确保对人们进行充分的培训,使其能够更好地与 AI 工具协同工作。

主持人:我的意思是,您刚才提到了关于误解以及误解可能导致的问题。Mike,我想请问您,如果我们从国家或国际层面来看,在确保刚才提到的那种透明度方面,政府、公司以及我们个人分别扮演着什么样的角色?

Michael I. Jordan:您想让我谈谈这个问题吗?我的意思是,我认为监管应该在我们真正开始了解这项技术能够做什么之后再进行。我在今天的演讲中谈到了均衡。我们会将许多事物投入应用,它们将以各种方式与人互动,人们会创造新的事物,新的市场将会出现,新的文化也将应运而生。我希望看到所有这些,并希望它们蓬勃发展。一旦我们了解了人工智能能做什么和不能做什么,我们就可以进行监管,以确保整个系统以有益于社会福利的方式运行,并避免产生不良的外部影响等等。过早的监管只会扼杀创新。如果我们不了解正在发生什么就进行监管,那将是非常糟糕的主意。

主持人:Eric 早些时候表示,在人工智能方面,应该全速前进,以便了解技术的现状,然后再像您所说的那样制定框架,因为如果不先实践,我们又怎么能知道未来会怎样呢?您是否也认同这种观点?

Michael I. Jordan:是的,当然。任何技术最有趣的地方都在于那些我们从未预料到的应用。就像一个 25 岁的年轻人突然想到,化学工程现在已经可以用来制造氯气,从而确保游泳池的安全。然后,他们又发现化学工程还可以用于制造药物以及其他各种应用。这正是我所期待的。我希望看到人工智能的发展,我更认同人工智能的互补性概念,即人工智能应该补充人类的能力。我希望人工智能能够以某种方式融入我们的生活,从而使我们的生活更加激动人心和有趣。我认为,当我们在创造事物或者与他人互动时,往往是最快乐的。如果技术能够支持我们实现这些目标,我完全赞同。但如果技术妨碍我们,并试图告诉我们该做什么,我就不赞同。

主持人:很高兴能听到您对这个问题的看法。您认为在伦理方面,主要的考虑因素是什么?我们是应该继续全速前进,还是应该停下来,更早地完善相关框架?当然,这只是您个人的观点。

Stéphane Mallat:您刚才提到了监管。很明显,美国和欧洲对这个问题的看法有所不同。但如果您仔细思考一下我们想要监管的系统,就会发现监管本身也是实验的一部分。如果我们等到最后才进行监管,我们将不知道如何进行有效的监管。监管应该随着事物的发展而逐步完善,否则,如果我们等到最后才进行监管,可能会彻底陷入混乱。所以我倾向于认为监管实际上是系统不可或缺的一部分。无论如何,公司一直都受到监管。到处都有各种法规。因此,问题始终在于监管的程度是多一些还是少一些,而这显然是目前大西洋两岸存在分歧的地方。

主持人:我指的是,关于“先监管还是后监管”的这种二分法,或许反映了美国和欧洲的不同观点。Bernard,很想听听您的见解。我们应该先监管还是后监管?或者说,我们应该在哪个阶段开始监管?

Bernhard Schölkopf:嗯,我认为,如果我们回顾一下欧洲的做法,就会发现他们进行了咨询,试图获得技术专业知识。但也许并非所有技术领域的人都认为他们获得了足够的技术专业知识。令我有点惊讶的是,我与之交谈过的许多参与监管的人,他们似乎真的为自己成为首批进行监管的人而感到自豪。这让我感到有点不舒服,好像我们欧洲真的以成为监管速度最快的地区而自豪。这可能是一个极端。另一个极端是我们只会进行实验,然后打破它。或许双方可以互相学习。在真空中进行监管没有任何意义,因为没有人能够预测技术的发展。

主持人:好的。我明白了,您的意思是应该找到一些共同点。我看到一位来自美国的朋友想要补充一些看法。我认为现在有很多关于监管的讨论,欧洲显然在这些讨论中处于领先地位。但是,与此同时,如果我们从人类行为的角度来考虑,抛开人工智能不谈,就会发现人类行为本身就受到明确的规范,对吧?例如,在医疗保健应用中,在某些应用场景下,我们不能提供医疗建议。除非获得资质认证,否则我不能这样做。但是,现在人工智能模型最吸引人的地方之一恰恰在于此。如果你让你的母亲使用人工智能模型,她们首先会问,我应该用什么药?我应该用这个药吗?还是应该用那个药?所以我认为,这正是我思考监管问题的出发点,监管应该从人类系统已经受到监管的领域开始。在这些领域,已经投入了大量的工作进行监管体系的建设。因此,与其试图找出人工智能的风险点,并通过人工智能系统本身来定义风险,不如真正从人类以及人机互补性的角度入手,因为这些系统最终将被人类使用。因此,如果我们从已经存在监管的应用领域开始着手,这可能是一种比较简便的方法。除此之外,我同意 Mike 的观点,另一方面是需要建立适当的激励机制,也许可以由政府出面,激励那些对社会有益的方向,从而促进人类福祉。我们是否可以在这些方向上投入更多的研究和开发?我认为这可能是最有效的方法之一。

Yann LeCun:关于监管,我有一个非常简单的观点。我认为监管人工智能系统的部署是完全合理的。当然,例如,如果你的汽车配备了驾驶辅助系统,你肯定希望在产品上市之前,有政府机构对其进行充分的测试。如果人工智能被用于医疗诊断,例如分析 X 射线或其他医学影像,那么需要进行某种形式的临床试验等等。因此,对应用进行监管是完全没有问题的。我认为过去最具争议的讨论点在于,有些人认为人工智能即使不部署也具有内在的危险性,并试图说服政府监管人工智能的研发活动。我认为这种观点极其危险,而且极具破坏性。事实上,这简直是中世纪的蒙昧主义,恕我直言。而且,这样做会带来非常危险的后果,原因我之前已经解释过了,那就是,如果将人工智能技术锁起来,你就会被少数几家公司监管俘获,而这些公司集中在美国和中国。因此,我们需要开源模型。如果任何监管措施将开源模型做坏事的责任归咎于技术的发起者,那么开源模式将无法生存。

主持人:我理解您的意思,您提出了一个很有意思的观点。如果我们超越那种关于监管的常见讨论,比如“监管过多”或“监管不足”的风险。今天我们讨论了一些这之外的风险。人们担心,人工智能算法最终可能存在偏见,并且在数据保护方面做得不够。我们应该如何解决这些问题?又该如何让人们相信,正如您一开始所说,人工智能并非从一开始就令人恐惧?

MichaelI.Jordan:你看,任何黑箱系统都不可避免地会存在偏见,特别是对于那些我们知之甚少、处于认知边缘的领域。所以,这就是为什么我们仍然需要统计学家。你需要能够判断,“对于这个问题,我没有足够的信息给出解答,答案很可能需要修正,或者你需要加入一些金标准数据,来辅助黑箱系统给出的结果。”围绕这些黑箱系统,实际上存在着一个完整的体系。大语言模型(LLM)以及所有相关的技术,它们本身并不能解决所有问题。它们只是工具,需要配合其他技术和方法,才能发挥作用。而且,它们始终会存在偏见。当然,有时偏见也可能是有益的。

主持人:迈克,您认为在什么情况下偏见会是好事呢?

MichaelI.Jordan:有时候偏见是好的,因为它可以帮助我们看到某些确实可能发生的模式。这是一种“偏向性”,但不一定意味着它是绝对真理。关键在于,“不带偏见”本身就是一个毫无意义且无用的概念。重要的是如何合理地运用偏见。在正确的时间,以正确的方式施加偏见,要考虑具体情况和个体差异。不要对所有人应用相同的规则,认为在所有人身上平均下来就没有偏见了。不,要针对不同的人制定不同的规则,因为那样才能对人们更好,才能提升社会福祉。这又回到了经济学。我们需要的概念是关于聚合和集体的。这些概念本身就带有偏见,而这种偏见是可取的。我希望有价格歧视。我年纪大了,就希望能买到更便宜的电影票,对吧?这有什么问题吗?实际上这对每个人都有好处。

主持人:当然。所以您是想说,偏见不一定是负面的,甚至在某些时候可能是有益的。

MichaelI.Jordan:我们现在对“偏见”这些词汇的使用过于宽泛了。“偏见是坏的,伦理是好的”,我们只是在用这些流行语,但背后并没有深入思考。我们需要构建完整的理论框架,深入理解这些概念。技术是坏的吗?大语言模型是坏的吗?好与坏,这种二元对立的思维方式太“50年代”了。

Bernhard Schölkopf:而且有趣的是,我们往往会不自觉地将负面事物与机器联系起来。我认为,我们看到了很多可能发生的负面情况,但我更认同一种乐观的视角,积极的事情也可能发生。机器做出的决策过程,有时可能比人类的决策过程更透明。如果一个决定对你不利,但如果这个决定是人类做出的,你可能并不会因此得到多少安慰。所以,如果我们能够更彻底地分析机器的公平性和偏见问题,也许在某些情况下,这反而是有利的。我们过于关注这些风险,却可能忽略了机器独有的一些优势。我个人比较关注的一个问题,也与迈克提到的相关,就是机器生成内容和人类生成内容之间的区别。目前,互联网上的大部分文本内容仍然是人类创作的,大部分音乐也仍然是人类创作的。但未来,情况可能会变得非常混乱。也许大部分文本都是机器生成的,大部分音乐也是机器生成的。作为人类,如果我不知道内容是由机器生成的,我会感到有些被欺骗。我想知道哪些内容是人类创作的,是那些倾注了心血和艺术创造力的人创作的。我希望能够事先知晓这些信息。

YannLeCun:随着时间的推移,你会知道的。如果你在读的是署名为马塞尔·普鲁斯特的作品,但实际上是由生成式AI完成的,读几页之后你就会发现不对劲了。

主持人:我们还是回到“什么是人类创作”这个话题上来。

StéphaneMallat:那是猜测,不是吗?

主持人:我想问问您关于监管的问题。我认为我们讨论的是“词语”本身。我完全同意,“监管是好还是坏”这种二元对立的观点是没有意义的。我们所处的环境一直都受到监管。各种激励机制都是监管的结果。我们并不反对监管,所以问题在于如何进行监管,而不是是否应该监管。

YannLeCun:当然,监管对人工智能发展来说可能是好事。回顾自动驾驶汽车兴起的时候,人们都在讨论,如果出现这样的情况:一边是祖母,另一边是母亲和两个孩子,自动驾驶系统该如何抉择?我记得有一次和博世的工程师交流,他告诉我,“你看,安全气囊的工作原理是,我们无法100%保证安全气囊不会伤人。实际上,安全气囊过去也曾造成过伤亡。但是,有专门的测试机构来评估安全气囊的安全性。最终,专业人士会达成共识,认为总体而言,配备安全气囊利大于弊。”也许未来自动驾驶汽车也会是这样,我们可以设立权威机构进行评估和认证。这也能保护代码开发者和销售自动驾驶汽车的公司,避免最终将责任全部归咎于人类,好像机器做的一切都要追溯到某个需要为此承担责任的人。

主持人:这真是一场引人深思的辩论。我意识到我需要转变看待问题的方式,尤其是在偏见问题上。斯蒂芬妮,我想请您谈谈,因为我们已经讨论了偏见。现在让我们更Broad一些,比如社会操控,例如利用人工智能来传播特定的政治观点。我们该如何应对这种情况?这有多危险?关于偏见问题,迈克建议我们可以从另一个角度来看待,那么对于社会操控,我们是否也可以用不同的视角来审视?

StéphaneMallat:我认为约书亚明天可能会详细阐述各种风险。显然,现在存在深度伪造技术,而且大语言模型有可能生成大量的虚假信息等等。但这些风险,我想我们大多数人都已经有所了解。我相信Yann肯定有话要说。

YannLeCun:大语言模型出现已经有一段时间了,而且开源的大语言模型也已经存在很久了,包括几年前就开源的模型。我与负责内容审核的同事交流过,他们的工作是防范网络攻击、虚假信息和机器人程序等。但他们表示,并没有看到机器人程序大量生成内容的情况。这种情况并没有发生。所以,之前一直有人认为,我们会被大语言模型生成的虚假信息淹没,但这种情况并没有发生。虚假信息确实存在,但它们是由人类制造的。虚假信息的问题不在于信息量的多少,而在于它的传播网络。如果你有大量的追随者和支持者,虚假信息就会变得很有影响力。这与虚假信息的产量多少无关。

Stéphane Mallat:但是,即使最终恶意行为者是人类,人工智能 也无疑为他们提供了工具,使其影响成倍增加。

Yann LeCun:谢谢你提到这点。我正要说,应对 AI 攻击的最佳方法是发展更先进的AI 。

Stéphane Mallat:是的,但还有对齐问题。

Yann LeCun:目前最复杂的人工智能系统。

Stéphane Mallat:我的意思是,更先进的 AI ,但由谁来控制?这才是问题的关键。我的意思是,这涉及到利益对齐的问题,这一点显而易见。现在,这就引出了关于偏见的问题,对吧?正如 Mike 完全正确地指出的,不可能存在没有偏见的系统。偏差总是会存在,这是一种权衡。因此,确保偏差不会对 AI 产生巨大的负面影响的方法是,数学上的客观优化,或者说是多样性。如果你有开源平台,就会有各种各样的 AI 系统,它们具有不同的观点、不同的价值观体系以及不同的偏见,无论是政治上的还是其他的。这样人们就有选择的余地。这就像新闻媒体一样。我们需要 AI 系统的高度多样性,原因和我们需要新闻媒体多样化是一样的。

Stéphane Mallat:您说得对,但正如您所知,现在实际上存在垄断局面。

Yann LeCun:如果出现垄断局面,情况就不妙了。如果专有系统占主导地位,我们只能从少数几家中国或美国西海岸的公司获得 AI 协助,那么就会形成垄断。是的,肯定会出现垄断。

Michael I. Jordan:这还与这些系统的构建方式有关。人类进化成部落和群体,从五到十人,到二十人,再到两百人,建立民主,建立信任等等。突然间,我们开发出了一种技术,让每个人都听从于某一个名人。这完全是一场在过去 20 年里对人类进行的实验。我不确定这是否奏效,有人同意吗?还是不同意?

主持人:可以算作半同意吧。

Michael I. Jordan:我并不认为情况乐观,我的意思是,结论可能尚未可知,但是,嗯,它已经对人类社会造成了巨大的混乱。你可以想象这些网络会有不同的模式,例如为儿童创建一个专属领域,孩子们可以在这个领域里活动,而成年人则在另一个领域里。但现在的情况是,每个人都在听 Donald Trump 或是 Beyonce 的。我们正在进行一场大规模的社会实验,并寄希望于技术能自行解决问题。但我认为我们并没有那么乐观,我不确定拐点何时会出现,但目前的情况并没有显示出任何好转的迹象。

主持人:好的,我只是觉得时间有限,虽然我们可以继续深入探讨很多问题。我想说,今天大家对 AI 的讨论都很积极。我想以一个积极的结尾来结束今天的讨论,然后我们可以接受几个提问。请各位用一句话概括一下,你们对 AI 的未来发展最乐观的方面。 

Stéphane Mallat:乐观的方面有很多,但当您提出这个问题时,我脑海中立刻想到了一件事,我想从积极和中立两方面来谈谈。我认为有一个问题我们经常忽略,它既非积极也非消极,那就是教育,以及 AI 对学校教育的影响。这可能是变革发生最快的领域之一,因为孩子们行动非常迅速,并且快速地使用 AI 工具,而教师们在这方面显得有些不知所措。因此,我认为这是一个非常重要的领域,我们应该积极投入精力,以便了解如何帮助教师适应这种情况。他们比大学老师面临的挑战更大。在大学里,我们主要考虑自身如何适应,但这相对来说并不复杂。中小学教育则更有趣,也更重要。我认为这是一个我们应该积极关注的领域。

主持人:好的,Stéphane,我理解您的意思是,应该将注意力集中在教育系统上。Bernard,您对 AI 的哪些方面感到乐观?

Bernhard Schölkopf:我认为我们正面临着许多全球性问题,特别是气候变化问题,以及未来的大规模流行病问题等等。我看到有若干这样的问题,没有 AI ,我们根本无法解决。我不是说 AI 一定能解决所有问题,但例如气候问题,我看不出有什么政治解决方案。也许 Mike 可以提出一种机制或自动设计的机制,但即便如此,要让各国和公司都接受这个机制也是非常困难的。所以我认为,最终我们必须投入大量精力去寻找能源存储和能源生产的技术解决方案。我认为能源存储甚至比能源生产更重要,因为现在太阳能发电已经很便宜了。此外,还需要碳捕获技术,因为即使我们减缓碳排放的速度,仍然需要清除大气中的一部分碳。可能还需要改变地球反照率的技术,以便对气候变化,甚至是流星撞击这样的危险做出快速反应。总之,有很多全球性问题,没有 AI ,我们是无法应对的。

主持人:Bernard,我理解您的意思是关注可持续发展。Asu,您怎么看?您对 AI 的前景持乐观态度吗?

Asu Ozdaglar:嗯,我对人类与 AI 的互补性,或者说是亲人类的 AI 非常期待。我认为 AI 应该真正地赋能和促进人类发展,帮助人类更好地完成工作、科学研究或创造性任务。为了实现这个目标,我认为我们需要转变重点,改变愿景,将技术与人类行为和市场结合起来。这可能也是我和 Mike 的一些共识,即为什么经济学和社会科学在这些讨论中如此重要。我相信我们有希望实现这个目标,但这需要我们关注正确的愿景和议程。

Michael I. Jordan:是的,我以前并不算是 AI 领域的人,因为在我看来, AI 就像 Frankenstein (弗兰肯斯坦),我们试图创造一个像我们人类一样的东西,但我们人类已经够多了。我更希望我们人类之间能够更好地互动。所以,是的,我认同人类与 AI 的互补性,以及 AI 在音乐创作等领域的应用前景。我对这些方面持乐观态度。但人类这个种族也充满了冲突,我们常常为了资源争吵不休,而且资源是有限的。经济学告诉我们如何应对稀缺性。硅谷的许多问题让我感到担忧,因为我认为他们没有意识到稀缺性的存在。他们似乎认为技术可以消除稀缺性,创造出我们想要的一切。但这在现实世界中是不可能的。资源总是有限的。如果某些人占有了大量资源,其他人可获得的资源就会减少。我们需要找到让人们在这种情况下感到满意,并进行贸易和互动的方法。我认为世界在这方面正在倒退。我不确定 AI 是否能有所帮助,但我乐观地认为,如果人们以正确的方式思考, AI 可以提高透明度,促进沟通,缓和目前世界各地存在的冲突。

主持人:Mike,您实际上是在倡导人类与 AI 的互补性,以促进社会进步。

Michael I. Jordan:即使是在大语言模型 出现之前,翻译系统就已经很不错了。所以,也许 AI 可以用于科学研究。我不会说普通话,但我可以用法语对着麦克风讲话。顺便说一句,我的法语还不错。

主持人:AI 用于科学研究。

Michael I. Jordan:通过 AI我可以将法语翻译成普通话,并与其他人交流。AI 用于科学,目的是为了让我们更幸福。我希望人类参与其中,而不是被排除在外,我不想剥夺人类的乐趣。

Stéphane Mallat:没错,如果那样做,就恰恰是将人类排除在外了。AI 用于科学研究非常令人兴奋。AI 用于数学也令人着迷,因为我们正在取得许多新的发现。

Michael I. Jordan:是的,Terry Tao 以后可能会因为 AI 的辅助,在数学领域取得更大的成就。

Stéphane Mallat:是的,在科学领域, AI 有着令人惊叹的应用前景。

主持人:惊人的事情,令人兴奋。Yann轮到你了,你对这种乐观情绪有什么看法?

Yann LeCun:当然, 生成式 AI用于科学,尤其是在医学领域,目前是非常令人兴奋的。我个人不直接从事这方面的工作,但是,我非常支持我的同事们参与其中。我的意思是,我们确实有很大的希望,能够找到解决人类最重大问题的方案,可能包括利用新材料来应对气候变化,或者用于能量存储等等。我的一些同事实际上正在研究这些问题。所以这非常令人兴奋。而且在医学成像等领域,已经部署了很多进展。即便如此,我认为最终 AI 将使人们变得更聪明。因为所有 AI 都将是辅助性的。你知道,我们谈论自主 AI 和诸如此类的概念,但没有人会开发出一种不以某种方式辅助人类的 AI 系统。因此,这种需求是真实存在的,人们正在为此努力。这不像存在两种类型的 AI:一种是完全自主、不与人类交流的 AI,另一种是旨在与人类协同工作的 AI。 所有的 AI 都被设计为与人类协同工作。但是目前,如何让人工智能与人类进行适当的互动,这个问题在待解决的问题列表中排名第 354 位,而我们仍在努力解决排名第 5 位的问题。

所以,这就是为什么人们正在研究这个问题,因为我们仍然需要解决重大的概念性难题,才能实现更高级的互动。嗯,但显然,所有的 AI 都将是辅助性的。因此,我认为我们未来与甚至 超级智能系统的互动模式,嗯,将类似于政治、商业、科学或学术领域的领导者,拥有一群比他们更聪明的幕僚。我的意思是,在政界这肯定是事实,大多数政治家的幕僚都比政治家本人更聪明。嗯,所以,我们将与比我们更聪明的“虚拟人”一起工作的概念并不新鲜。我一直都在这样做。我身边的大多数同事都比我聪明。嗯,所以这将是我们与 AI 之间的关系,它们将放大我们的智能,使我们更具创造力,效率更高。AI 可能会对社会产生类似于 15 世纪印刷术的颠覆性影响,促进知识的传播,因为目前 AI 本身就是一种知识传播的途径,对吧?

主持人:所以,智能放大这就是你非常热衷的,非常感谢你。今天时间过得真快。我想知道我们的博士生们在不在现场,如果可以的话,我们只能再问两个非常简短的问题。嗯,我想请你们迅速来到台上,这样我们就可以向我们出色的专家组提出问题。好的,就两个问题。是的,或者你们可以站在这里,或者去台上。这取决于你们,随你们选择。在哪里舒服就在哪里。需要麦克风吗?好的。扬,我可以把麦克风递给你吗?哦,不用,你们那里有两个麦克风。女士,请对着麦克风讲话。好的,请开始提问。

提问者 1:感谢各位的讨论。假设我们希望加强监管,当然,我的理解可能不一定正确,但这只是一个假设。您认为政策制定者对 AI 最大的误解是什么?这种误解阻碍了他们有效地进行监管,我们应该如何纠正这些误解?

主持人:好的,有人对这个问题的答案特别有想法。Yann 你想先回答吗?

Yann LeCun:我认为,那种认为 AI 本质上是危险的,并且可能导致人类灭绝的想法,完全是一种谬论,根本就是错误的。这种误解导致政府倾向于监管研发,甚至可能导致开源和开放研究被非法化。我认为这极其危险。

主持人:请问第二个问题。

提问者 2:好的,我的问题更多关于教育,也想问问在座各位 AI 领域的教授。现在研究进展非常迅速,论文的标题对于 10 年前毕业的人来说可能已经难以理解了。嗯,对于想要进入这个领域的学生来说,鉴于我们无法预测他们毕业时的情况,他们应该学习什么才能经得起时间的考验?更广泛地说,在通识教育中,教师应该教什么?尤其是在学生们使用 AI 工具完成家庭作业的今天。嗯,所以我认为教育应该如何变革?

Michael I. Jordan:这和几个世纪前的信息是一样的:学习数学。是的。不,要学习数学,学习思考,学习抽象思维。没错。你知道,是的,这些工具可以帮你解决微积分问题,但那又怎样?它们只是在已有的基础上构建。就像计算器一样。你不需要做算术运算。你现在可以在此基础上继续发展。所以,继续学习吧。嗯,我学到的每一分数学知识都让我感到快乐,它们在我的生活中都非常有用,并且帮助我与他人建立联系。

Asu Ozdaglar:如果允许我补充一点,除了数学之外,基础知识也非常重要,这些基础知识可以涵盖不同的领域。迈克提到了三个领域。我想补充优化 。

Michael I. Jordan:工程本质上就是优化。

Asu Ozdaglar:我们达成共识了。关键是要思考哪些基础工具。嗯,许多演讲中提到的人工智能模型或想法,都很大程度上依赖于这些基础知识。

主持人:好的,所以要回归基础。非常感谢你们精彩的提问。非常感谢我们的专家组,今天和你们的对话非常愉快。非常感谢。

本文转载自微信公众号“数字开物”。

 

话题:



0

推荐

返朴

返朴

2747篇文章 2小时前更新

溯源守拙·问学求新。返朴,致力好科普。

文章