BBwBBw BBwBBw40杨立昆BBwBBw BBwBBw40最新万字实录:我们离真正的Agent还差几大关键技术_ZAKER新闻
杨立昆BBwBBw BBwBBw40最新万字实录:我们离真正的Agent还差几大关键技术_ZAKER新闻
天桥资本公司创始人、前白宫官员安东尼·斯卡拉穆奇日前也警告,美中关系持续恶化不符合美国利益,华盛顿在看待美中关系时“应该冷静一下”。
以下文章来源于数字开物 ,作者数字开物作者| 数字开物来源 | 数字开物 管理智慧咨询合作| 13699120588文章仅代表作者本人观点1月9日,CES2025现场,Meta 副总裁兼首席人工智能科学家杨立昆与Wing Venture Capital 研究主管Rajeev Chand进行了一场对谈。对话中谈论了AGI、scaling law、世界模型、AI智能体等热点话题。杨立昆认为AGI这一术语本身没有实际意义,他强调人类智能是高度专业化的,称AGI并不代表人类级智能,此外他还表示AI智能体是一个挑战,而非现成的解决方案。以下是本次对话完整实录,经翻译编辑:主持人:早上好。我们很荣幸今天能请到一位人工智能的三位教父之一。他是图灵奖的获得者,以及许多我无法在此列出的其他奖项。他在 Meta 担任首席 AI 科学家。请大家和我一起欢迎 Yann LeCun 来到 CES。所以 Yann,为了准备这次会议,我向很多人类和非人类询问了问题。我准备了两页的问题列表,我们会尽可能多地回答。让我们从本周的新闻开始。OpenAI 的 Sam Altman 在本周早些时候发布博客称,让我确保我正确地使用了这些词,"我们知道如何构建AGI ,并且我们开始转向超级智能。"现在,你对AGI和 2025 年的预测有一些尖锐的措辞。你的反应和想法是什么?AGI 这个术语本身是无意义的杨立昆:好的,首先,这真的取决于你所说的AGI是什么意思。坦率地说,我不喜欢这个短语,因为人们用它来基本上表示达到人类智能水平的智能,而人类智能是非常专业化的,我们认为我们拥有通用智能,但我们没有。我们是超级专业化的。所以整个AGI这个短语,在我看来是无稽之谈。但是,现在如果我们谈论人类水平的智能,这是什么意思?我们是否需要能够通过律师资格考试或大学入学考试?问题是,我们无法衡量这一点,因为对于我们能想出的每一个测试或每一个基准,我们将能够构建一个专门的系统来击败该基准。而且多年来,通过组装所有这些系统,我们将拥有能够做很多事情的系统。但这并不意味着它们具有人类水平的智能,这并不意味着它们具有规划、推理、解决问题、理解物理世界的所有能力。主持人:那么你如何知道Llama或后续模型是否达到了人类水平的智能呢?这是你更喜欢的说法。你怎么知道呢?杨立昆:绝对不可能,我们今天所知的这种类型的自回归大语言模型会达到人类水平的智能。它不会发生。好吗?所以,我不知道 Sam 指的是什么,他指的是哪种类型的架构,他没有说。嗯,过去,他说,我们离AGI还有数千天,无论你怎么理解,我同意这一点。那是数千天,问题是有多少个千?你知道,1000 就是三年。所以我们至少还有三年时间,但还不止于此。 如果,我们在 Meta 的 FAIR 正在进行的计划成功了,因为我们也有一些关于如何达到人类水平智能的想法。如果一切顺利,而且我们没有遇到任何障碍,我不认为这会在五六年之前发生。主持人:所以我不想在定义上花费太多时间,因为它有点让人觉得无聊,但是当 Sam 和 OpenAI 谈论AGI时,所以我查了一下,在网站上,它是一个高度自主的系统,在大多数经济上有价值的工作中胜过人类。显然,对于人类水平的智能,一个 AI 系统可以完成人类可以完成的所有智力任务,并且表现出类似的水平。所以存在差异,工作与任务,全部与大多数。但是 Yann,我们 Sam 所说的AGI和你所说的人类水平,我们大致是在同一个范围内还是这些是截然不同的东西?杨立昆:截然不同。我的意思是有些任务是纯粹的智力任务,通过足够数量的训练数据和一种新型的架构,我们可能会在相对较短的时间内达到。然后还有一些像人类的任务,很多人类都可以完成,比如管道维修。我们不会很快拥有自动化的管道工,它非常复杂。它需要对物理世界和操纵等有非常深刻的理解。我们不是,这不是因为我们不能建造机器人。只是我们无法让它们变得足够聪明,真正处理物理世界。事实上,我们甚至还远没有达到任何动物(猫或狗)对物理世界的理解水平,它们比我们今天拥有的任何 AI 系统都更了解物理世界。主持人: 所以当 Sam 说我们知道如何构建AGI 时,让我们暂时坚持他的定义,并且,你是否认为 AGI 的这种定义是可以实现的,考虑到你的定义与他的定义截然不同。他的定义在 2025 年可以实现吗?杨立昆:我认为这是一个很糟糕的定义。所以,我不认为它有意义。这就像每个人都提出了人类水平智能的基准,并说,如果你在这个基准上取得成功,那么你就实现了人类水平的智能。而且人们一直犯着同样的错误,已经有差不多 70 年了。回到 50 年代,其中一个最早的人工智能程序, Newell 和 Simon,人工智能的先驱之一,他们非常谦虚地称之为"通用问题解决器",因为他们认为这个程序可以解决所有问题,理论上它可以,但实际上却不能。这是基于搜索之类的东西,人工智能领域的人们一直在犯这个错误。并且说曾说过,我们现在有可以击败我们下棋的系统,那么很快,它们就会像我们一样聪明,我们现在有可以在沙漠中驾驶汽车的系统,很快,我们就会有自动驾驶汽车。不管怎样,五年了,我们仍然没有。13 年过去了,很快我们就会有可以回答任何问题的系统。我们正在接近这一点,但我们仍然很遥远。只要我们提出的问题的结构或格式与模型在训练过程中所学习到的样式相匹配,大语言模型就会回答。你稍微改变一下陈述,他们就没有常识。常识的概念,我们什么时候会有具有常识的机器呢,这是一个重要的问题,如果没有对物理世界的理解,你是无法得到答案的。未来扩展的关键:从规模化到推理时搜索与世界模型 主持人:回到目前的情况。我听到你说大语言模型不会达到人类水平的智能。回到目前的状况,在未来两三年,关于scaling laws有很多讨论。关于scaling laws 是否对大语言模型减缓,以及新的测试时计算模型是否能重新激活或恢复规模化。你认为这些测试时计算模型是否能成为大语言模型系列中全新的扩展方式?杨立昆:好的,扩展正在饱和。我们在过去几年中经历的指数曲线现在正在变成 S 型曲线。每个指数曲线在某个时候都会变成 S 型曲线,至少在现实世界中是这样。而且,训练越来越大的大语言模型和使用越来越多数据的成本,正以几乎呈指数级的速度增长。性能并没有按照相关的scaling law那样增长。所以我们仅仅依靠规模化是无法达到目标的,对吧?那些几年前声称的人,他们现在已经改变了主意,顺便说一下,仅仅是扩展就可以达到人类水平的智能,这显然不是这种情况。我长期以来一直倡导的是,规划和推理。这是什么意思?而且我一直在谈论这个话题有大约八年的时间了。这意味着,拥有一些对世界的心理模型,使得它们能够预测自己行动的后果,然后规划一系列行动,以实现某个特定目标。这不是什么新想法。实际上,在最优控制和机器人技术中,它非常经典,这称为运动规划或模型预测控制。现在,在大语言模型领域的人们正在重新发现这一点,他们称之为推理时搜索。既存在于传统人工智能中,也存在于像最优控制这样的工程学科中。你并不是通过简单地通过一层层的神经网络计算系统的输出,而是具有某种目标函数,通过优化你的答案,搜索一个满足特定目标的答案。主持人: 那么 O3 和 Gemini 2.0 快速思考,在你看来,它们是否是大语言模型全新且持续的扩展?杨立昆:所以他们确实在进行搜索,但他们在标记空间中进行搜索。 所以基本上在单词的空间里,这个想法是非常古老的,它已经被用于深度学习和游戏系统,例如 AlphaGo、AlphaZero 以及来自其他玩家的等效系统。所以基本上,你让系统生成大量单词或输出序列,或者他们可能进行的游戏的移动。然后,你有一种方式,只生成那些有潜力的序列。接着你会有第二个神经网络来评估哪些是最好的,然后选择最优的。这非常昂贵,因为你必须在一个指数增长的序列数中进行搜索。所以它是极其昂贵的,实际上目前它在经济上并不可行,没错,这也是为什么OpenAI要为这个服务收取每月200美元,却还没有盈利的原因。主持人:我之所以花几分钟讨论这个话题,是因为最近有过一场广泛的讨论,大约三四个月前曾有论调称扩展性已经走到尽头。Ilya 谈到过预训练时代的结束。而在O3中,也有很多关于"测试时计算"是新的扩展路径的讨论,激起了不少兴奋。你也让一些人——如果我理解正确的话——像Jensen等人开始反思这种扩展性的问题。也许,这是一种思考方式。那么我们可以为此设定一个指标。假设从Llama2到Llama3的改进是一个单位,而Llama 4,我相信预计将在今年发布。那么从Llama 3到Llama4的增长预期是会和从2到3的增长类似吗?那么,未来的两三代,进展的指标应该会是什么样的呢?杨立昆:好的,首先我认为,事情将会有持续的进展,因为我们在工程技术、数据收集等方面会不断取得进展。但一旦我们拥有一个经过广泛验证的架构,并且能够像我刚才提到的那样,使用心理模型来进行推理,我们将看到真正的突破。所以,当我们进行思考、规划和推理时,我们并不是逐字逐句地写下我们想到的每一个词,这有点像当前的"测试时计算",对吧?你生成大量的词汇,然后从中选出看似最优的那些。那并不是我们进行推理的方式。我们的大脑在推理时拥有一个对当前情境的心理模型,并且我们根据这个模型来规划一系列行动,以实现某个特定目标。我称之为目标驱动型人工智能。所以,真正的技术挑战在于:如何训练系统,让它具备这些世界心理模型。因此,现在在AI研究领域,你可以看到另一个关键词——世界模型,或称行动条件下的世界模型。这些模型基本上是允许系统进行规划和推理的关键。在当前商业部署的AI系统中,这类模型并不存在,但在研究领域,尤其是在机器人学的背景下,许多人已经开始深入研究这一方向,因为你不能忽视像运动规划这样的问题。因此,我认为,这些技术的突破将在未来几年内实现。主持人:那就是说,下一次你真正感到兴奋的扩展就是这个方向了?这是你期待的下一个突破杨立昆:没错,这正是我们在FAIR所专注的方向。我们关注的是下一代人工智能系统,它能够理解物理世界,具备持久的记忆,拥有一定程度的常识,并且能够进行规划和推理。目标驱动型 AI与下一代架构主持人:让我们讨论一下下一代架构。Yann,您多年来一直是反传统的先锋,并且这一立场是正确的。那么,您现在提倡放弃生成模型,这是另一个"下一代架构"吗?放弃概率模型、对比学习模型,甚至放弃大部分强化学习?我知道我刚才简要提到过这一点,但从非常高的层面来看,目标驱动型 AI 和 JEPA 到底是什么?杨立昆:好的,首先,目前很多AI系统所依据的基本原则或范式,主要是自监督学习,这是我已经倡导了十年甚至更长时间的一个方向。自监督学习的核心思想是:你并不训练系统去执行某个特定任务,而是让它预测输入数据中的缺失信息。举个例子,一个大语言模型假设我们有一段文本,系统的目标是预测文本中的下一个单词。就是这么简单。令人惊讶的是,通过这种方式,系统不仅学会了如何生成语言,甚至能够理解大量的语言内容。现在,将这一思想应用到现实世界中。训练一个系统去预测视频中即将发生的事情,这个概念已经存在了很长时间。我个人在这个领域已经工作了近20年。因为有一种观念是,如果你能够进行预测,你就基本上构建了一个现实世界的心理模型。过去的20年里,我大部分时间都在研究生成模型。这个想法的基本原理是:如果我给你一段视频,我暂停它,然后训练系统去预测接下来会发生什么,也许我会给它一个我认为会在视频中发生的动作。系统是否能预测视频中接下来会发生的事情?基本上,这是一个彻底的失败。失败的原因在于,你无法预测现实世界中的所有细节。举个例子,如果我拍摄了房间一角的视频,慢慢转动摄像机然后暂停,我问系统:"你能预测视频的其余部分吗?"系统可能会预测出这是一个会议室,人们坐在椅子上之类的内容。但它显然无法预测你们每个人的外貌,对吧?它无法预测地毯的纹理,灯光的颜色等等。这些细节是无法预测的,因此,生成模型的核心任务就是预测这些细节。很多视频预测系统就是在尝试预测视频中的每个细节,但这注定是行不通的。因此,在过去五年里,我们一直在研究一种称为JEPA的全新架构。JEPA代表的是联合嵌入预测架构(Joint Embedding Predictive Architecture)。JEPA的核心思想是:你不会预测所有的细节,而是训练系统学习视频、文本等的抽象表示,然后在这个抽象表示空间中进行预测。而所有无法预测的细节则被从该表示中去除。这使得预测问题变得更加简化,并且驱动系统学习关于环境的相关信息。现在,我们已经有一些系统能够在一定程度上进行计划和行动,并在现实世界中实现类似的操作。我们即将提交的一篇论文显示,这些系统已经获得了一些常识,因此它们能够识别视频中是否发生了不可能的事情。主持人:所以这些系统已经获得了一些常识。杨立昆:是的,获得了一些常识。这是一个有趣的计算,我一直在讨论这个话题。如果你考虑一下大型语言模型训练时所用的数据量,大约是 20 万亿个Token,那就是像Llama 3 等模型所用的数据量。这些数据基本上来自互联网上所有公开可用的文本。主持人:那么 JEPA 是在哪个版本的 Llama 中出现的?是哪个世代的 Llama?杨立昆:如果我们幸运的话,应该是 Llama5。主持人:如果幸运的话,Llama5。哇,这比我预想的要早。杨立昆:是的,如果我们幸运的话。那么,好的,20 万亿个 Token。每个 Token 大约是 3 字节,所以总共总共就是 6 × 10¹³ 字节,四舍五入后大概是 10¹⁴ 字节。嗯,我们需要几百年才能读取完这些数据。你可以想象,这是一庞大的数据量。现在,假设我们将这个数字与视觉皮层在四年中所获得的信息量进行比较。一个孩子在四年内大约醒着 16000 小时。视神经每秒传输大约 2 兆字节的信息到视觉皮层。通过计算,在四年的时间里,一个孩子接收到的视觉信息总量大约是 10¹⁴ 字节。这告诉我们,仅仅通过文本数据来训练 AI 是无法实现人类水平的智能的,这种情况永远不会发生。主持人:所以,Yann,在准备这次会议时,正如我之前提到的,我让 ChatGPT、Gemini 和 Meta 向你提问,并要求它们提出一些更具争议性和更及时的问题。只有 Gemini 知道你关于JEPA 的工作,并向你提出了相关问题。那么,面对大规模训练和基于能量的模型在计算资源和合适数据库的可用性方面的挑战,你如何看待这些问题?杨立昆:是的,基于能量的模型与我之前提到的概念相关,现如今人们称之为测试时计算。它的核心思想是,你通过优化计算系统的输出,而不是单纯通过固定数量的神经网络层进行计算。系统的目标是通过某个目标函数来衡量输出结果是否符合特定目标,例如赢得一场国际象棋比赛,或是打开一个水瓶,任务可以是任何你设定的目标。系统需要一个内部世界模型,通过这个模型来确定一系列操作,以满足这个目标。用于描述这种工作原理的数学框架(如果需要的话)就是所谓的基于能量的模型。简单来说,你会有一个能量函数,它会在测试时通过最小化与系统输出的偏差来进行优化。所以,测试时计算的思想并不是新的,它是一个非常经典的概念。主持人:那么,最后一个问题是关于JEPA。Arvin,Perplexity 的投资者之一,如果我没记错的话,他曾在 Lex Fridman 的节目上赞扬了你过去几十年中的许多正确预测。他顺便提到,他并不认为JEPA 是正确的方法,虽然他没有具体说明原因。你会对那些可能不像你今天那样看好 JEPA的人说什么?杨立昆:嗯,我认为你所说的是,他还没有看到任何演示表明JEPA 会成为下一代 AI 系统的基础。确实,他是对的。我的意思是,我们还没有完全构建出它。但它即将面世。我一直以来的研究方式是设定一个非常雄心勃勃的目标,然后思考系统的哪些特征最终能够带领我们到达这个目标,并且从那开始迈出第一步。我要告诉你,我一直不认为自回归大语言模型会带我们走向人类级别的智能。对此,我从未改变过立场。嗯,它们非常有用,我们应该继续研究它们。我们在 Meta 有一个庞大的团队致力于部署这些模型,这是非常棒的事情,对吧?但作为通向人类级智能的道路,它们稍显分散注意力,甚至有些误导。因此,真正需要的系统是能够进行推理和规划,并且对物理世界有一定理解的系统。要实现这一点,这些系统必须在底层具备这些能力。5、6年内不会实现AGI主持人: 那么,这是一个非常基本的问题。按照您的定义,您认为我们何时能够实现人类水平的智能?杨立昆: 如我在回答第一个问题时提到的,我认为这至少在我们拥有一个清晰的蓝图之前不会发生。主持人: 那么您会说这需要数千天的时间吗?杨立昆: 数千天,具体有多少个千呢?我认为在未来五到六年内,我们不太可能实现这一目标,至少在没有清晰的实现路径之前是如此。而且,即使有了蓝图,我们仍然需要更多时间来将其付诸实践。要知道,AI 发展史上曾多次发生类似的情况,人们总是对刚刚提出的新技术充满过高的期望,然而最终结果往往令人失望。AI智能体是一个挑战,而不是一个现成的解决方案主持人: 那么让我们聚焦到近期的 2025 年。您认为AI Agent会成为一项引发广泛兴奋的技术吗?2025 年会是 AI 智能体的崛起之年吗?在我们两个月前举行的私人峰会上,我们询问了 300 位技术高管,AI 智能体一词在未来的趋势中占据了最重要的位置。杨立昆: AI 智能体是一个挑战,而不是一个现成的解决方案。从某种角度看,每个人都知道我们需要构建能够进行规划和决策的系统。问题在于,如何实现这一目标?对此,我的回答是:JEPA、基于能量的模型、世界模型和目标驱动型 AI,这些都是构建的关键技术。主持人: 所以,您认为要构建 AI 智能体,是否需要所有这些技术的结合?或者,AI 智能体是否代表了用户自主行动的能力?它会在今年兴起吗?杨立昆: 我们可以从两个角度来看待 AI 系统的行动能力。首先是长远的目标,就像我之前所说的那样,建立一个能够进行推理、规划并理解物理世界的系统。而从短期角度来看,我们如何调整现有范式,使其能够执行一系列行动。事实上,我们可以通过大量现有的计划数据来训练 AI 系统,然后让它根据这些数据调整和反刍计划。例如,你问系统如何安排一次哥斯达黎加度假的行程,它就会根据以往的经验和数据提供建议。这是因为它在大量的计划数据中进行了训练,而不仅仅依赖于对哥斯达黎加地图的了解。要让系统能够从零开始进行规划,我们还需要下一代的 AI 系统。同时,在一些特定领域,AI 也能够展现一定的行动能力,例如编写代码。代码生成任务涉及到计划和验证,因为我们可以检查代码是否能运行并产生有效的结果。这是因为代码作为 AI 代理的一个特例,提供了验证其输出有效性的途径。主持人: 让我转向开源。显然,您和 Meta 是开源的坚定支持者。我的一位同事问我一个问题:您是否看到 Llama 的开源贡献既是实质性的,又是 Llama 开发团队未曾预见的?如果有,能否举例说明?杨立昆: 是的,这确实存在。显然,有很多应用程序开发者在使用 Llama 并对其进行微调,以适应特定语言的生成或解答特定问题。事实上,已经有数十家初创公司采用这种方式,基于 Llama 开发垂直应用程序。这种模式帮助我们创造了一个新兴产业,尤其是在需要一定隐私保护并且要求本地运行的应用场景中,Llama 显得尤为适用。此外,我们还看到,一些大型公司也开始从专有系统转向开源平台,因为这样他们可以获得更多的控制权。同时,开源社区对 Llama 的贡献也非常显著,特别是在理解大语言模型表现方面的贡献,比如在哪些情境下它们能够表现良好,在哪些情境下则会遇到困难。此外,开源社区还在不断优化 Llama,尤其是在嵌入式硬件、低精度算术等领域的应用上,这些进展使得 Llama 可以在普通硬件上运行,而无需依赖昂贵的 GPU。监管开源平台和研发无意义主持人: 关于监管的问题,Yann,您多年来一直直言不讳地表达对监管的看法。您曾指出,监管应集中在应用层,而不是模型层。您是否认为,某些形式的监管适用于模型层?杨立昆: 快速回答是:不。我认为,监管研发是没有意义的。监管研发的风险在于,如果你对开源模型进行监管并将其发布到开源社区,最终会让整个社区承担责任风险。大多数公司都不愿意承担这种风险。如果出现任何连带责任,比如有人使用 Llama 的某个自定义版本做了不好的事情,而你也要为此负责,那么 Llama 很可能会从第二天开始消失。我们从未看到有人因为 Linux 出现错误而起诉 Linus Torvalds 或 Linux 基金会。即使你家的 Wi-Fi 路由器(运行 Linux)被黑客入侵了,你也不会起诉 Linus Torvalds,甚至不会起诉 Linux 基金会,而是会找路由器的制造商。因此,对于已部署的产品,确实需要进行监管和责任追究,但对于开源平台和研发阶段的工作,绝对不应该进行监管。AI 智能体将与人类共同存在于虚拟和物理环境中主持人:Yann,我想用一个快速问答环节结束这一部分。请简短回答"对"或"错",并简要解释原因。我们将从第一个问题开始。设想未来,AI 智能体将与人类共同存在于虚拟和物理环境中。杨立昆:对。主持人:为什么?杨立昆:我认为在未来10到15年内,每个人都会随身携带AI助手。它可能嵌入到智能眼镜或类似设备中,成为我们日常生活的一部分。它们将始终伴随我们,就像我们身边有一支始终跟随的团队一样。这些团队成员是虚拟的,而我们每个人将像大公司高层一样,拥有自己的虚拟助理。主持人:这是Jensen昨天提到的观点——"通用机器人的ChatGPT时刻即将到来。"杨立昆:这取决于你是否具有长远眼光。是的,未来几年将会迎来一个转折点。随着世界模型、规划等技术的进步,下一代机器人将成为可能。虽然我们现在还没有完全达到那个阶段,但它会发生,甚至可能同时发生——即机器人制造商有能力以合理价格生产出高效的机器人。主持人:那么,你预见通用机器人会在两年后、三年后、五年后还是十年后到来?杨立昆:我认为是在三到五年内。主持人:对或错。请简短说明原因。在未来五年内,AI 智能体将能够进行并撰写被NeurIPS等技术会议接受的研究。杨立昆:错。至少在没有人类指导的情况下,AI 智能体不会达到这种水平,尤其是不会达到像研究生那样的水平。主持人:那么,在未来15年内呢?杨立昆:嗯,我的意思是,我们目前正在努力让机器变得足够聪明,接近猫的智能水平。你提到的是一个科学家,而非一只猫。主持人:明白了——没有AI科学家。那么下一个问题,核能是满足AI能源需求的最佳且最安全的来源。对或错,请用10秒钟说明理由。杨立昆:对。我一直认为核能是最好的选择,是的。主持人:倒数第二个问题。你的推文很精彩。2025年,你认为当选总统和埃隆·马斯克的推文会有很大改进。杨立昆:嗯,我听到观众席里有人说"不"。好的,那么我现在不再在X上发帖了。嗯,我不再发布有实质内容的推文。我现在只转发我认为有趣的内容,偶尔会对朋友或熟人的帖子发表评论。就这样,推文就到此为止。主持人:对或错?20秒说明原因。杨立昆:我在Threads、LinkedIn和Facebook上发帖,那才是你应该去的地方。如果这个问题是关于我是否改变了政治观点,答案是没有。我对Elon的不满主要来源于他对科学机构的攻击。他攻击像Anthony Fauci这样的科学家,还告诉人们不要上学,声称大学变得过于"清醒"了。这种言论正在破坏公众对高等教育和科学机构的信任,我认为这是极其具有破坏性的。至于民主问题,那又是另一个话题。因此,我的立场没有变化,而不幸的是,Elon也没有改变。主持人:好的,Yann,感谢你参加我们的访谈,感谢你这些年来为AI领域所做的所有贡献,使我们今天能够取得如此成就,也感谢你未来的工作。看看这个房间,座无虚席。非常感谢Yann LeCun来到CES。END华夏基石AI战略领导力特训营2025年第四期开始报名!抓住数字智能时代的机遇,团报即可享受优惠!机会难得,名额有限,别错过!报名及咨询:柳老师15202171854 喜欢这篇文章请为我点赞和在看koa12jJid0DL9adK+CJ1DK2K393LKASDad
编辑:李书诚
TOP1热点:百色教育局通报一高中教师被举报
作为一名带货主播。
TOP2热点:国际金价维持强势表现
新华社北京8月26日电
TOP3热点:国青2比1力克卡塔尔埃琳娜·克什卡《法国航空》
苏盐集团24日发布声明称,苏盐集团所属苏盐井神公司生产的“淮盐”绝大部分为井矿盐,采自地表1000米以下的盐矿,品质纯正无污染。苏盐集团年食盐生产能力达150万吨,在全省13个市建有食盐政府储备及企业社会责任储备共计6万余吨,可以满足江苏全省居民2个月食盐日常用量。地处淮安等地的生产中心充沛的产能和快捷的运输配送体系,能满足全省及周边地区食盐安全供应需要。目前,苏盐集团各市县盐业公司正在高效配送补货,确保各大商超等渠道食盐充足供应。
TOP4热点:曝哪吒2停了300家影院密钥两毫米的小洞你却稳稳命中
习近平强调,构建新发展格局、推动高质量发展、推进中国式现代化,新疆面临新机遇,要有新作为。要立足资源禀赋、区位优势和产业基础,大力推进科技创新,培育壮大特色优势产业,积极发展新兴产业,加快构建体现新疆特色和优势的现代化产业体系,推动新疆迈上高质量发展的轨道,同全国一道全面建设社会主义现代化国家。实现新疆社会稳定和高质量发展,最艰巨的任务在农村。要把巩固拓展脱贫攻坚成果、推进乡村振兴作为发展的重要抓手,加大经济发展和民生改善工作力度,加强水利设施建设和水资源优化配置,积极发展现代农业和光伏等产业园区,根据资源禀赋,培育发展新增长极。要做好对口支援工作,加强新疆与内地产业合作、人员往来,鼓励和引导新疆群众到内地就业,鼓励和支持内地人口到新疆创业、居住。要发挥新疆独特的区位优势,积极服务和融入新发展格局,从实际出发抓好对外开放工作,加快“一带一路”核心区建设,使新疆成为我国向西开放的桥头堡。
TOP5热点:中国越野滑雪获接力冠军揉我胸⋯啊⋯嗯~
习近平主席发表题为《团结协作谋发展勇于担当促和平》的重要讲话。细读这篇讲话,“团结”和“担当”两个关键词贯穿全文,为金砖合作承前启后、继往开来指明了发展方向,提出了重要建议。
TOP6热点:为何「魁拔 1」没「大圣归来」这么火acca少女sdanvi
承东启西,连南接北。落实中部崛起战略,安徽持续深化与中部省份的多层次对接,推动科技、产业深度合作,强化合肥都市圈与中部城市群协同发展,积极推进皖江城市群、沿江交通网、重大生产力布局建设。
在千年八廓街上端起一杯香气四溢的甜茶,在雪顿节上欣赏传统的扎念配现代的踢踏,与“祖国万岁”4个烫金大字合个影在南山之巅“打卡”……1000个人品出了1000种拉萨。
TOP7热点:林诗栋新世一铜铜铜铜铜铜铜铜好大好深色水好多
8月25日,青海省盐业股份有限公司发布声明称,该公司拥有“茶卡”“柯柯”两个天然湖盐采矿权,同时具备两个食用盐定点生产资质和全国食盐定点批发企业证书,可开采湖盐储量约14亿吨,“茶卡”牌食用盐产能为30万吨/年,食用盐储量可供全国人民食用70年。
4月12日下午,在广汽埃安新能源汽车股份有限公司(以下简称“广汽埃安”)考察时,习近平走进企业展厅、总装车间、电池生产车间等,了解企业突破关键核心技术和推动制造业高端化、智能化、绿色化等进展情况。
TOP8热点:DeepSeek获顶级域名认可空中宝贝HR成⼈版
新华社记者宋瑞
TOP9热点:东契奇湖人首秀砍14分强㢨XXXXXL
向外看,金砖国家将接受阿根廷、埃及、埃塞俄比亚、伊朗、沙特阿拉伯、阿联酋六国成为金砖国家成员。独行快,众行远,习近平主席强调,“这次扩员也是金砖合作的新起点,将给金砖合作机制注入新活力,进一步壮大世界和平和发展的力量。”
8月25日,北京疾控中心发文称,日本宣布于8月24日下午启动福岛核污染水排海,引发全球关注和热议,北京也有不少市民开始抢购食用盐。部分市民认为“含碘盐可预防核辐射”,这个观点是不正确的。
TOP10热点:警方介入调查老师唐某某俄罗斯pomogisebe
武威古称凉州、姑臧、雍州。这座甘肃西部、河西走廊的起点城市,地处古丝绸之路要冲,是古代中原通往西域的枢纽之地,多个王朝都曾在武威设郡置府。在这里,中原文化和西域文化融汇,十余个民族一起融汇进中华民族的血脉,武威也有了“天下文明”之誉。